繼新加坡2010年版本電子交易法(Electronic Transactions Act, ETA)於2010年7月1日式施行後,該國資通訊發展局(Info-communications Development Authority, IDA)因應修正電子交易法施行細則,該細則並於2010年11月1日起正式實施。其目的在使憑證機構管理制度得以配合新興資訊安全技術齊驅發展,進而使其與國際趨勢相符,修正要點如下:
1. 修正許可制為志願許可制:此次修正最大變革即在使該國憑證機構管理制度由原本的許可制,改為志願許可制。前者係使所有憑證機構均應向主管機關申請許可後,始能對外簽發憑證;而志願許可制則是原則上憑證機構對外簽發憑證無需主管機關許可,但憑證機構如果希望所簽發之憑證具備特定法律效果,則仍須經過許可。
2. 證據法上的推定效果:經過自願申請許可通過的憑證機構,經其所簽發之憑證而製作的數位簽章將有證據法上推定為真之效力,無待憑證用戶舉證即有其真實性,惟該真實性仍可由他方另舉反證推翻。換句話說,若數位簽章製作人使用的憑證為一般未經申請許可之憑證機構所簽發者,憑證用戶需先向法院提出其他輔助證據證明該簽章真實性。
3. 許可申請之要求:憑證機構自願申請許可時,應繳交申請費1千元新加坡幣(下同)及2年有效之許可執照費1千元。此外,新版施行細則統一整合舊有之「安全指導手冊」(Security Guideline)及其他各項稽核規定於「稽核需求要項表」(Compliance Audit Checklist),以供憑證機構得以更便利之方式了解並遵循共通之稽核程序。
美國加州行政法辦公室(the Office of Administrative Law)於2019年12月17日宣布,根據日前通過之修訂規範,該州車輛管理局(the Department of Motor Vehicles)將審查州內公共道路上進行輕型自動駕駛(下稱自駕)運輸服務商業化應用測試之申請,換言之,業者如取得車輛管理局之核准,可以測試重量未達10,001磅之自駕運輸車輛(如一般客車、中型貨車、可載運雜貨類商品的客貨兩用車等)服務。另外,業者如欲就該自駕運輸服務收取運輸費用,則必須另向車輛管理局申請佈署(deployment)許可,即商業化或供公眾使用之許可。 不論何種自駕運輸車輛服務之測試,均須遵循現行測試、佈署之申請程序要求,並根據車輛管理局的核准內容進行有或無安全性駕駛人(safety driver)的自駕運輸服務測試,簡要整理不同規範要求如下: 如為有安全性駕駛人之測試與應用,有以下要求: 證明車輛已經曾在符合應用目的之情境(如駕駛環境)下進行測試。 維持測試駕駛人(test driver)的培訓規劃,並且證明每位測試駕駛人均完成培訓。 確保測試駕駛人維持潔淨(clean)的駕駛記錄。 確保測試駕駛人在測試期間乘坐在駕駛座上監控車輛的運行狀況,並在有需要的時候可以即時接管車輛。 須提交年度脫離(或譯為解除自駕)報告(disengagement report),且如有發生碰撞,須於10日內提交碰撞報告予車輛管理局。 如為無安全性駕駛人之測試與應用,有以下要求: 提供測試自駕運輸服務所在地方當局之書面通知以茲證明。 證明自駕測試車輛符合以下要求: (1)車輛與遠端遙控操作者間具有通訊連結。 (2)車輛與執法部門間的通訊方式。 (3)製造商將如何監控測試車輛之說明 提交一份與執法部門如何互動交流的計畫。 證明自駕測試車輛符合聯邦機動車輛安全標準(FMVSS),或提供國家公路交通安全管理局(NHTSA)之豁免監管證明。 證明自駕測試車輛可以在沒有駕駛人存在的情況下可以自主運行,並屬於美國汽車工程師協會(SAE)標準等級4、等級5之車輛。 證明測試車輛已經曾在符合應用目的之情境(如駕駛環境)下進行測試。 通知車輛管理局將要測試營運的區域範圍。 維持遠端遙控操作相關培訓規劃,並證明每位遠端遙控操作者均完成培訓。 須提交年度脫離報告,且如有發生碰撞,須於10日內提交碰撞報告予車輛管理局。 如自駕運輸服務擬商業化或供公眾使用,申請佈署之相關要求如下: 證明車輛: (1)配備自駕車輛資料紀錄器,此技術是根據加州車輛法規(California Vehicle Code)設計來偵測並反應道路實際狀況 (2)符合聯邦機動車輛安全標準或提供國家公路交通安全管理局之豁免監管證明。 (3)符合現行關於網路攻擊、非經授權侵入或錯誤車輛控制指令之防護、偵測與回應等產業標準。 (4)製造商曾進行測試與驗證,並有足夠信心將車輛佈署於公用道路上。 提交一份與執法部門如何互動交流的計畫複本。 如果車輛不需要駕駛員,製造商必須證明其他事項: (1) 車輛與遠端遙控操作者間具有通訊連結。 (2) 當碰撞事故發生時,車輛可以顯示或傳輸相關資訊予車輛所有人或操作員。 綜上所述,若要在加州進行自駕運輸車輛服務測試,須視其服務型態及是否涉及佈署,以遵循不同規範要求,申言之,服務採行有無安全性駕駛人與是否商業化或供公眾使用,二者為併行關係,舉例來說,如業者擬佈署有安全性駕駛人之商業運輸服務,則須同時符合有安全性駕駛人之測試與應用以及佈署等要求。加州對於自駕車輛運輸服務商業化之措舉,值得我國借鏡以完善自駕車輛運輸應用之推動。
促進頻譜使用效率-美國啟動獎勵拍賣機制 歐盟提出人工智慧法律調和規則草案歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。 歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。 本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。 AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。
日本「u-Japan政策」簡介