英國上議院科學及科技委員會(The House of Lords, Science and Technology Committee)於2016年9月15日對於自動駕駛車(Autonomous Vehicles)的運作環境與應備法制規範展開公眾諮詢,委員會邀請利害相關的個人和團體提交書面文件來回應此公眾諮詢。書面意見提交的最後期限是2016年10月26日。
英國政府一向對發展自動駕駛車的潛力十分積極,其在2015年建立了一個新的聯合政策單位-聯網與自動駕駛車中心(Centre for Connected and Autonomous Vehicles, CCAV),並在2015年財政預算案中提供CCAV一億英鎊的智慧行動研發基金聚焦於無人駕駛車技術。CCAV還公佈現有與車輛交通相關立法的調查報告,其結論是:「英國現有的法律架構和管制框架並不構成自動駕駛車在公路上測試的阻礙。」此外,CCAV還出版了無人駕駛汽車測試的實務守則。在2016年英國女王的演講中,政府宣布將制訂現代運輸法案(Modern Transport Bill):「確保英國處在最新運輸科技的尖端,包括自動駕駛和電動車。」 2016年7月,CCAV舉辦了英國的聯網與自動駕駛車的測試生態系統的公眾諮詢,以及於2016年9月發佈個人和企業對於在英國使用自動駕駛車技術和先進輔助駕駛系統的公眾意見徵詢。
本次公眾諮詢將調查政府所採取的行動是否合適,是否有兼顧到經濟機會和潛在公共利益。在影響與效益方面,本次諮詢將收集自動駕駛車的市場規模與潛在用途、對用戶的益處與壞處、自動駕駛車對不同產業的潛在衝擊以及公眾對於自動駕駛車的態度等相關證據。在研究與開發的方面,自動駕駛車目前的示範計畫與規模是否足夠、政府是否有挹注足夠的研發資金、政府研發成果的績效以及目前研發環境是否對中小企業有利等面向,找尋傳統道路車輛是否有和自動駕駛車輛並存的過渡轉型方法。最後,布署自動駕駛車是否需要提升軟硬體基礎設施、政府是否有建立資料與網路安全的方法、是否需要進一步的修訂自動駕駛車相關法規、演算法及人工智慧是否有任何道德問題、教育體系是否能提供自動駕駛車相關技能、政府制訂策略的廣度;以及退出歐盟是否對英國研發自動駕駛車產業有不利之影響;而英國政府是否應在短期內做出保護該產業之相關措施,或是待Brexit條款協商完成之後再視情況決定等等。
上述議題在書面意見徵集完成之後,將於2016年11月召開公聽會再度徵集更廣泛的相關意見,科學及科技委員會希望能在2017年初做成調查報告並提交給國會,在得到政府回應之後,可能將進行辯論以決定未來英國自動駕駛車產業的發展方向。
韓國國會於2025年11月21日通過《創業投資促進法》(Venture Investment Promotion Act, VIPA)修正,並於同年12月30日經總統公布,將過往僅屬行政指導層級,建議投資契約不宜要求創辦人對受投資企業依法應負擔的營運責任或債務義務負連帶保證責任,提升為具有法律拘束力之規範。 過去韓國雖透過行政指導方式,建議投資契約不宜要求創辦人負連帶保證責任,但因缺乏法律強制力,投資方常基於契約自由原則,仍在契約中要求創辦人擔保,造成風險不對等,影響創辦人創業意願。 修法後原則上不得將受投資企業依法應負擔的營運責任或債務義務強加於創辦人,透過法律規範,改善創辦人與投資方間的締約地位不對等,使投資風險更回歸企業本身之經營表現與事業前景之評估,進而提升新創團隊取得資本市場資源之效率。然而,為在制度保障與契約自由間取得平衡,若創辦人涉及提供虛假資訊、違反資金用途、違規處分股票或嚴重違約等故意或重大過失行為,該規範將不適用,投資方仍可請求創辦人履行連帶保證義務。 此外,本次修法後,創業育成機構、加速器、創投公司等與創辦人簽訂投資契約之情況下,不得要求創辦人就受投資企業依法應負擔之營運責任或債務義務負連帶保證責任,旨在於創投生態中建立統一風險分攤標準,釐清企業債務與個人財務界線。 本法預計於2026年7月1日生效,但有關明確創辦人連帶責任之適用範圍之條文,依附則規定自2025年12月30日公布日起即刻施行,從法律層面確立對創辦人的保護,改善韓國創投領域的責任歸屬制度。
美國白宮公布巨量資料追蹤報告與政策建議 歐盟提出人工智慧法律調和規則草案歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。 歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。 本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。 AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。
英國無線電頻譜管理改革政策(下)--風險評估與對策