日本國土交通省公布最後一哩路自駕車系統指引

  為促進自駕車研發和推廣,日本國土交通省召集產官學研各界成立先進安全汽車(Advanced Safety Vehicle, ASV)推進檢討會,檢討設計自駕車時之注意事項,並於2020年7月17日公布「最後一哩路自駕車系統基本設計書」(ラストマイル自動運転車両システム基本設計書),希望能藉此達成確保地方交通運輸能量及加速自駕車落地之目標。

  「最後一哩路自駕車系統基本設計書」將操作適用範圍(Operational Design Domain, ODD)定義為限定區域或駕駛環境條件,並提出所有自駕車應具備之共通ODD,包括(1)道路/地理條件︰目標道路、行駛道路;(2)環境條件︰時間、天氣;(3)行駛條件︰行駛速度;(4)行駛空間︰可支援自駕車行駛之基礎設施,以及可提醒用路人注意正在進行自駕車實驗之設施。此外,由於不同應用情境會影響ODD之設定,故本書以限定路線下往返之自駕車為代表,說明在個案中該如何進一步檢討ODD。以行駛速度為例,在共通ODD中,最後一哩路自駕車時速應為30公里,但在提供限定路線內往返之載客服務時,自駕車的時速應設定在12公里以下。最後,「最後一哩路自駕車系統基本設計書」內整理最後一哩路自駕車共通及特有之技術要件,以及設計時應留意和確認的問題。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 日本國土交通省公布最後一哩路自駕車系統指引, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8547&no=65&tp=5 (最後瀏覽日:2026/04/15)
引註此篇文章
你可能還會想看
歐盟執委會發布2021-2027年歐洲單一市場計畫,加強歐盟內部市場管理

  2018年06月07日,歐盟執委會對2021年到2027年期間擬定單一市場計畫和預算,該計畫預計支用40億歐元保護歐盟消費者和促進歐洲中小企業(SME)競爭力,同時加強歐盟內部市場管理,促進人類、動植物健康和動物福利,並建立歐洲金融數據統計框架。   新的單一市場計劃包括: 1. 增加中小企業競爭力,促進產業升級、擴大產業規模並幫助中小企業有跨境競爭的能力; 2. 落實消費者保護政策,確保產品安全,並在產品和服務有疑義時,確實協助消費者獲得補償; 3. 支持食品安全生產,預防及根除動植物疾病,以及改善歐盟的動物福利,而歐盟公民得以繼續在歐洲單一市場取得安全和優質的食品,同步提高人類和動植物健康之水平; 4. 加強歐盟執委會和會員國之間的合作,確保歐盟法規範得到適當實施和執行; 5. 響應市場發展,幫助歐盟執委會加強運用資訊科技產業工具與知識(例如大數據和演算法等等)。 6. 補助會員國的統計機構,提供資金給政策領域中與數據相關的發展、製作和傳播,提高歐洲統計數據品質。   歐洲單一市場讓歐洲人民能自由旅行、工作和生活,同時擁有更多的選擇和更低廉的價格,能在歐盟境內更輕鬆地進行商品服務交易。因此,歐洲單一市場可說是歐洲最佳資產,可以促進歐洲企業成長且在全球化市場中培養競爭力。而2021-2027年計畫將確保當地有效達成單一市場連續性,為歐盟人民和企業提供更好的投資與生活環境。

歐盟「人工智慧法」達成政治協議,逐步建立AI準則

歐盟「人工智慧法」達成政治協議, 逐步建立AI準則 資訊工業策進會科技法律研究所 2023年12月25日 隨著AI(人工智慧)快速發展,在各領域之應用日益廣泛,已逐漸成為國際政策、規範、立法討論之重點。其中歐盟人工智慧法案(Artificial Intelligence Act, AI Act,以下簡稱AIA法案)係全球首部全面規範人工智慧之法律架構,並於2023年12月9日由歐洲議會及歐盟部長歷史會達成重要政治協議[1],尚待正式批准。 壹、發佈背景 歐洲議會及歐盟部長理事會針對AIA法案已於本年12月9日達成暫時政治協議,尚待正式批准。在法案普遍實施前之過渡期,歐盟執委會將公布人工智慧協定(AI Pact),其將號召來自歐洲及世界各地AI開發者自願承諾履行人工智慧法之關鍵義務。 歐盟人工智慧法係歐盟執委會於2021年4月提出,係全球首項關於人工智慧的全面法律架構,該項新法係歐盟打造可信賴AI之方式,將基於AI未來可證定義(future proof definition),以等同作法直接適用於所有會員國[2]。 貳、內容摘要 AIA法案旨在確保進入並於歐盟使用之AI人工智慧系統是安全及可信賴的,並尊重人類基本權利及歐盟價值觀,在創新及權利義務中取得平衡。對於人工智慧可能對社會造成之危害,遵循以風險為基礎模式(risk-based approach),即風險越高,規則越嚴格,現階段將風險分為:最小風險(Minimal risk)、高風險(High-risk)、無法接受的風險(Unacceptable risk)、特定透明度風險(Specific transparency risk)[3]。與委員會最初建議版本相比,此次臨時協定主要新增內容歸納如下: 臨時協議確立廣泛域外適用之範圍,包含但不限於在歐盟內提供或部署人工智慧系統的企業[4]。但澄清該法案不適用於專門用於軍事或國防目的之系統。同樣,該協定規定不適用於研究和創新目的之人工智慧系統,也不適用於非專業原因之個人AI使用。 臨時協議針對通用AI(General purpose AI)[5]模型,訂定相關規定以確保價值鏈之透明度;針對可能造成系統性風險之強大模型,訂定風險管理與重要事件監管、執行模型評估與對抗性測試等相關義務。這些義務將由執委會與業界、科學社群、民間及其他利害關係人共同制定行為準則(Codes of practices)。 考量到人工智慧系統可用於不同目的之情況,臨時協議針對通用AI系統整合至高風險系統,並就基礎模型部分商定具體規則,其於投放市場之前須遵守特定之透明度義務,另強調對於情緒識別系統有義務在自然人接觸到使用這種系統時通知他們。 臨時協議針對違反禁止之AI應用,罰款金額自3,500萬歐元 或全球年營業額7%(以較高者為準)。針對違反其他義務罰款1,500萬歐元或全球年營業額3%,提供不正確資訊罰 款750萬歐元或全球年營業額1.5%。針對中小及新創企業違反人工智慧法之行政罰款將設定適當之上限。 參、評估分析 在人工智慧系統之快速發展衝擊各國社會、經濟、國力等關鍵因素,如何平衡技術創新帶來之便利及保護人類基本權利係各國立法重點。此次歐盟委員會、理事會和議會共同對其2021年4月提出之AIA法案進行審議並通過臨時協議,係歐洲各國對於現下人工智慧運作之監管進行全面的討論及認可結果,對其他國家未來立法及規範有一定之指引效果。 此次臨時協議主要針對人工智慧定義及適用範圍進行確定定義,確認人工智慧系統產業鏈之提供者及部署者有其相應之權利義務,間接擴大歐盟在人工智慧領域之管轄範圍,並對於人工智慧系統的定義縮小,確保傳統計算過程及單純軟體使用不會被無意中禁止。對於通用人工智慧基礎模型之部分僅初步達成應訂定相關監管,並對基礎模型之提供者應施加更重之執行義務。然由於涉及層面過廣,仍需業界、科學社群、民間及其他利害關係人討論準則之制定。 面對AI人工智慧之快速發展,各國在人工智慧之風險分級、資安監管、法律規範、資訊安全等議題持續被廣泛討論,財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境,將持續觀測各國法令動態,提出我國人工智慧規範之訂定方向及建議。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI,https://www.europarl.europa.eu/news/en/press-room/20231206IPR15699/artificial-intelligence-act-deal-on-comprehensive-rules-for-trustworthy-ai (last visited December 25, 2023). [2]European Commission, Commission welcomes political agreement on Artificial Intelligence Act,https://ec.europa.eu/commission/presscorner/detail/en/ip_23_6473 (last visited December 25, 2023). [3]Artificial intelligence act,P5-7,https://superintelligenz.eu/wp-content/uploads/2023/07/EPRS_BRI2021698792_EN.pdf(last visited December 25, 2023). [4]GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2 (last visited December 25, 2023). [5]General purpose AI-consisting of models that “are trained on broad data at scale, are designed for generality of output, and can be adapted to a wide range of distinctive tasks”, GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2(last visited December 25, 2023).

英國公共廣電服務將可收取轉播之著作授權金

  英國2017年數位經濟法(Digital Economy Act 2017)已於2017年4月27日經英國國會通過,該法第四章規範智慧財產權,其中第34條條文內容意旨係公共廣電服務(Public Service Broadcaster)對其經轉播之內容享有著作財產權,任何欲轉播公共廣電服務內容之有線電視平臺將不得無償轉播,應交付授權金。   在舊法之架構下,英國1988年著作、設計及專利法(Copyright, Design and Patents Act 1988)第73條免除有線電視平臺轉播公共廣電服務內容所生之著作權侵權之責任。舉例而言,維珍集團旗下的電視媒體(Virgin Media)若轉播英國獨立電視臺ITV之節目,因不涉著作權侵權,故毋庸給付授權金。該條之立法目的原係為扶持80年代後有線電視發展之政策目標,然現今因多頻道、衛星數位電視,甚至是網路平臺持續蓬勃發展,該條文已相對過時,故透過2017年數位經濟法將該條文刪除。   英國公共廣電服務業者如BBC、Channel 4和ITV近年來大力倡導並遊說此立法政策,強調大多數的英國原創節目都是由其產出,主張有線電視平臺應當給付合理的轉播授權金,始能支持公共廣電服務業者持續為英國民眾帶來高品質的節目內容。惟,考量部分公共廣電服務業者與有線電視平臺之關係,如維珍媒體是ITV之大股東,往後公共廣電服務是否能有足夠的議價能力收取到合理的授權金,抑或反而造成英國民眾須支出更多節目費用,值得關注。

何謂芬蘭科學院(AOF)?

  芬蘭科學院(Academy of Finland, AOF)是隸屬於芬蘭教育、科學及文化部的專業研究資助機構,旨在促進芬蘭科學研究的多樣化及國際化,資助前端突破性科學研究,提供科學技術及科學政策的專業知識,並加強科學研究的地位。芬蘭科學院最高決策單位為七人委員會,委員會主席由科學院院長出任。   底下設有:文化與社會、自然科學與工程、健康醫學以及環境與自然資源四個研究委員會。每一委員會設主席一人委員十人,任期三年。行政單位由大約一百位專家組成,主要工作為準備及執行七人委員會及各研究委員會的各項工作與決策,並撰寫科學報告和研究計畫。   其任務包括獎助大學與研究機構內的科學研究工作與團隊、參與多邊研究計畫的規劃與獎助、資助芬蘭研究人員參與國際研究計畫、評估科研計畫的品質及水準,以及科技政策專業諮詢等。研究範圍涵蓋建築、太空研究、細胞生物和心理學到電子和環境科學研究。

TOP