英國上議院科學及科技委員會(The House of Lords, Science and Technology Committee)於2016年9月15日對於自動駕駛車(Autonomous Vehicles)的運作環境與應備法制規範展開公眾諮詢,委員會邀請利害相關的個人和團體提交書面文件來回應此公眾諮詢。書面意見提交的最後期限是2016年10月26日。 英國政府一向對發展自動駕駛車的潛力十分積極,其在2015年建立了一個新的聯合政策單位-聯網與自動駕駛車中心(Centre for Connected and Autonomous Vehicles, CCAV),並在2015年財政預算案中提供CCAV一億英鎊的智慧行動研發基金聚焦於無人駕駛車技術。CCAV還公佈現有與車輛交通相關立法的調查報告,其結論是:「英國現有的法律架構和管制框架並不構成自動駕駛車在公路上測試的阻礙。」此外,CCAV還出版了無人駕駛汽車測試的實務守則。在2016年英國女王的演講中,政府宣布將制訂現代運輸法案(Modern Transport Bill):「確保英國處在最新運輸科技的尖端,包括自動駕駛和電動車。」 2016年7月,CCAV舉辦了英國的聯網與自動駕駛車的測試生態系統的公眾諮詢,以及於2016年9月發佈個人和企業對於在英國使用自動駕駛車技術和先進輔助駕駛系統的公眾意見徵詢。 本次公眾諮詢將調查政府所採取的行動是否合適,是否有兼顧到經濟機會和潛在公共利益。在影響與效益方面,本次諮詢將收集自動駕駛車的市場規模與潛在用途、對用戶的益處與壞處、自動駕駛車對不同產業的潛在衝擊以及公眾對於自動駕駛車的態度等相關證據。在研究與開發的方面,自動駕駛車目前的示範計畫與規模是否足夠、政府是否有挹注足夠的研發資金、政府研發成果的績效以及目前研發環境是否對中小企業有利等面向,找尋傳統道路車輛是否有和自動駕駛車輛並存的過渡轉型方法。最後,布署自動駕駛車是否需要提升軟硬體基礎設施、政府是否有建立資料與網路安全的方法、是否需要進一步的修訂自動駕駛車相關法規、演算法及人工智慧是否有任何道德問題、教育體系是否能提供自動駕駛車相關技能、政府制訂策略的廣度;以及退出歐盟是否對英國研發自動駕駛車產業有不利之影響;而英國政府是否應在短期內做出保護該產業之相關措施,或是待Brexit條款協商完成之後再視情況決定等等。 上述議題在書面意見徵集完成之後,將於2016年11月召開公聽會再度徵集更廣泛的相關意見,科學及科技委員會希望能在2017年初做成調查報告並提交給國會,在得到政府回應之後,可能將進行辯論以決定未來英國自動駕駛車產業的發展方向。
馬里蘭州去氧核醣核酸採集法(DNA Collection Act)引發隱私爭議2009年,馬里蘭州立法通過去氧核醣核酸(下稱DNA)採集法(DNA Collection Act),允許警方向已經被起訴但尚未定讞之犯罪嫌疑人採集DNA樣本,其適用對象主要在於暴力犯罪或一級竊盜案件。對此問題,美國大約有26州立有與馬里蘭州類似的法案,例如維吉尼亞州的執法單位對於暴力犯罪在經過逮捕後即可進行DNA採集。然而,該法案卻引發了隱私權利與公眾安全之平衡的爭論。 此次爭議爆發於Alonzo Jay King Jr. v. State of Maryland案,案件中Alonzo Jay King Jr.在2009年被起訴暴力攻擊,且因此被警方採集DNA,而後又在經過DNA比對之後,發現與2003年一宗強制性交案件所遺留下的DNA樣本符合,並據此判決Alonzo Jay King Jr.強制性交罪。本案經Alonzo Jay King Jr.上訴高等法院後,高等法院認為調查人員採集其基因資料並以之與舊案件進行比對,已經侵犯了美國憲法第四修正案所賦予人民的合理隱私期待,屬於不合法的搜索,並據此判決禁止向犯罪嫌疑人採集DNA樣本。本案目前正在最高法院上訴中,而最高法院首席法官John Roberts日前發布了一份命令,阻止了高等法院判決的生效,並使得馬里蘭州在最高法院作出判決之前仍然能夠採集DNA;全案預計將在10月進行聽證,未來,最高法院將如何判決,值得吾人注意。
美國國家標準暨技術研究院發布「全球AI安全機構合作策略願景目標」,期能推動全球AI安全合作美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)於2024年5月21日提出「全球AI安全機構合作策略願景目標」(The United States Artificial Intelligence Safety Institute: Vision, Mission, and Strategic Goals,下稱本策略願景),美國商務部(Department of Commerce)亦於2024年參與AI首爾峰會(AI Seoul Summit)期間對外揭示本策略願景,期能與其他國家攜手打造安全、可靠且可信賴之AI生態系。 由於AI可信賴與否往往取決於安全性,NIST指出當前AI安全所面臨的挑戰包含:一、欠缺對先進AI之標準化衡量指標;二、風險測試、評估、驗證及確效(Test, Evaluation, Validation, and Verification, TEVV)方法不健全;三、欠缺對AI建模後模型架構與模型表現間因果關係的了解;四、產業、公民社會、國內外參與者等在實踐AI安全一事上合作程度極為有限。 為因應上述挑戰並促進AI創新,NIST在本策略願景中擬定以下三大戰略目標:(1)推動AI安全科學發展:為建立安全準則與工具進行技術合作研究,並預先部署TEVV方法,以利評估先進AI模型之潛在風險與應對措施;(2)推展AI安全實務作法:制定並發布不同領域AI風險管理之相關準則與指標,以達到負責任設計、開發、部署與應用AI模型與系統之目的;(3)支持AI安全合作:促進各界採用前述安全準則、工具或指標,並推動全球合作,以發展國際通用的AI安全風險應對機制。
英國股權式群眾募資簡介-以近期監管規則發展為中心