澳洲證券投資委員會(Australian Securities and Investments Commission, ASIC) 於2016年12月15日發布第257號法規指導(Regulatory Guide 257,RG 257)-在未持有AFS或信用執照的狀態下測試fintech產品與服務(Testing fintech products and services without holding an AFS or credit licence)。RG 257並包含澳洲的監理沙盒架構。重要內容如下:
1.有別於其他國家的監理沙盒需要申請方能適用,透過法規以及ASIC澳洲已經提供一些鬆綁機制,換句話說並不需要事先申請就可以取得監管沙盒鬆綁。例如非現金支付產品,包含儲值卡,以及某些國外交易服務。
2.ASIC的fintech 執照豁免見諸於ASIC Corporations (Concept Validation Licensing Exemption) Instrument 2016/1175 以及ASIC Credit (Concept Validation Licensing Exemption) Instrument 2016/1176。
3.ASIC也可個別提供客製化的執照豁免以促進產品或服務測試,個別豁免就比較接近其他國家的監管沙盒架構。
因此基本上,只要符合法定以及上述兩個instruments的規定,就可以自動取得監管沙盒的鬆綁,而無需另外申請,唯需「通知」ASIC,並提供相關資料。監理沙盒的適用期間為十二個月。但是如果不符法定以及Instrument 2016/1175、Instrument 2016/1176的規定,也可以另外向ASIC申請客製化的豁免。
目前可適用Instrument 2016/1175的金融服務包含:
•掛牌的澳洲證券;
•簡易管理的投資架構;
•存款產品;
•某些一般的保險商品;以及
•「授權存款取用機構(authorised deposit-taking institutions,ADIs)」發行的支付產品。
唯須注意的是,Instrument 2016/1176允許有限的信用協助,但是不得提供借貸。另外,使用監理沙盒的fintech企業最多只能有100個零售客戶,以有效控制風險。
法國國家資訊自由委員會(Commission nationale de l’informatique et des libertés, CNIL)自2020年5月起陸續收到民眾對臉部辨識軟體公司Clearview AI的投訴,並展開調查。嗣後,CNIL於2021年12月16公布調查結果,認為Clearview AI公司蒐集及使用生物特徵識別資料(biometric data)的行為,違反《一般資料保護規範》(General Data Protection Regulation,GDPR)的規定,分別為: 非法處理個人資料:個人資料的處理必須符合GDPR第6條所列舉之任一法律依據,始得合法。Clearview AI公司從社群網路蒐集大量全球公民的照片與影音資料,並用於臉部辨識軟體的開發,其過程皆未取得當事人之同意,故缺乏個人資料處理的合法性依據。 欠缺保障個資主體的權利:Clearview AI公司未考慮到GDPR第12條、第15條及第17條個資主體權利之行使,特別是資料查閱權,並且忽視當事人的個資刪除請求。 因此,CNIL要求Clearview AI公司必須於兩個月內改善上述違法狀態,包括:(1)在沒有法律依據的情況下,停止蒐集及使用法國人民的個資;(2)促進個資主體行使其權利,並落實個資刪除之請求。若Clearview AI公司未能於此期限內向CNIL提交法令遵循之證明,則CNIL可依據GDPR進行裁罰,可處以最高 2000萬歐元的罰鍰,或公司全球年收入的4%。
美國國家標準與技術研究院公布人工智慧風險管理框架(AI RMF 1.0)美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。 本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。 本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。
聯網自動駕駛車(CAV)聯網自動駕駛車(Connected and Autonomous Vehicles, CAV)是一種自動化聯網載具,係自動駕駛車以及互聯汽車兩種科技的集合,而CAV僅須符合其一即可稱之。按英國交通部的定義,自動駕駛車係為「無須稱職的駕駛者管理各種道路、交通與天候條件之下,能安全完成旅程的車輛。」目前上市產品中已可見部份自動駕駛車的身影,諸如自動路邊停車系統、先進輔助駕駛系統、自動緊急煞車系統等等。 互聯車輛科技允許車輛之間的互相溝通以及更廣泛聯網,目前已有的互聯車輛科技如動態導航系統、緊急求救系統(eCall)等,特別是歐盟欲規範未來新車都必備eCall系統,該系統可偵測事故發生並自動開啟安全氣囊、撥打求救電話並開啟全球定位系統(GPS),以利醫護人員快速救援。目前有三種正在發展中,用以支援互聯車輛的科技:V2V(車輛之間互聯)、V2I(車輛與交通設備互聯)、V2X(車輛與任何適當的科技互聯)。而發展CAV有六種益處,包括提升行車安全、減少交通阻塞、減少碳排放、更多自由時間可運用、任何人都可平等地使用CAV以及改良道路之設計。 我國刻正實施行政院於2014年5月核定之第2階段「智慧電動車輛發展策略與行動方案」,推動智慧電動車整車及零組件性能提升,協助廠商提升製程及資訊應用功能;研析國際驗證及測試規範,完善智慧電動車產業價值鏈。
美國太空軍是否已經輸掉了第一場戰爭—商標戰爭美國在2019年12月20日建立一支新的軍種—太空軍(Space Force)。這代表以往存在於科幻的宇宙部隊將躍然於現實,但美國太空軍可能會在商標戰爭中,輸給Netflix的喜劇影集「Space Force」。Netflix早於美國政府在歐洲、澳洲、墨西哥等地取得「Space Force」商標,但其並非為搶先美國政府進行註冊,而係為能銷售相關商品。 美國商標法採取先使用主義,即使後使用者先進行註冊,先使用者還是可以取得商標。Netflix自2019年初即開始即在全球廣泛採用「Space Force」做為商標,基本上「Space Force」之商標權應歸屬於Netflix。美國空軍則是在同年3月以「Space Force」申請商標做為一般的使用。然而,美國政府長期以來也有諸多關於軍事資產涉及商標保護之案例,例如派拉蒙影業(Paramount Pictures)在1995年至2005年間六次申請註冊「JAG」(Judge Advocate General)商標,但政府立場並未特別反對。 美國國防部(簡稱:DOD)針對商標授權使用,於商標許可指南(DOD Trademark Licensing Guide)中,說明對於美國軍隊徽章及標緻之使用方式,並於2007年推出了國防部品牌和商標許可計畫(DoD Branding and Trademark Licensing Program)。在此之後,美國海軍陸戰隊開始向大部分銷售標示有「USMC」T恤之電商,請求不得再銷售標示有相關文字之T恤。回到本事件,美國太空軍發言人表示,對於與Netflix可能存有商標爭議並不知悉,但希望Netflix能延續該節目,以做為良好的宣傳。