日本啟動大規模自動駕駛實證測試,聚焦高精度圖資與人機介面

  設置於內閣府內之SIP(跨部會戰略創新推動方案Cross-ministerial Strategic Innovation Promotion Program)「自動駕駛系統」計畫分項,於2017年10月3日起啟動大規模之自動駕駛實證測試。為加速實現系統之實用化,超過20個以上之國內外汽車製造商等機關,預計於東名高速道路、新東名高速道路、首都高速道路及常磐自動車道及東京臨海地區之一般道路,參加之大規模實證實驗。

  SIP自動駕駛系統係從2013年開始,以早日實現自動駕駛系統實用化、透過技術普及以減少交通事故和實現次世代交通系統為目標,並協調產官學各界共同領域工作,和將研究開發推進之重點聚焦於自動駕駛用 Dynamic Map高精度3D地圖(由日本7家相關公司共同出資成立之Dynamic Map Platform= DMP 開發之3D地圖)、人機界面 (Human Machine Interface, HMI)、資訊安全、降低行人事故、次世代都市交通等5種技術領域。

  研究開發由汽車製造商於公開場合下進行,並接受大眾檢視,於研究開發成果公布同時,也因海外製造商的參與促進國際合作與國際標準化。本次有超過20個機關參加規模,係日本自動駕駛最大規模實證實驗。

本文為「經濟部產業技術司科技專案成果」

※ 日本啟動大規模自動駕駛實證測試,聚焦高精度圖資與人機介面, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7931&no=67&tp=1 (最後瀏覽日:2026/02/06)
引註此篇文章
你可能還會想看
新加坡交易所發布(2013)智財揭露指引鼓勵上市企業揭露智財權利資訊

  新加坡政府於2013年3月完成10年期的IP Hub Master Plan,並點出三個戰略目標,以帶領新加坡成為亞洲的智財匯流中心。在其智財匯流中心(IP Hub)的政策規劃中,主要是希望成為全球: 1.智財交易及管理中心(A hub for IP transactions and management ) 2.優質智財申請中心(A hub for quality IP filings) 3.智財爭端解決中心(A hub for IP dispute resolution)。   針對「智財交易及管理中心」目標實施策略,考量若能鼓勵企業揭露重要的智慧財產權資訊,將有助於使投資人更瞭解公司的競爭優勢及發展潛力。亦即企業的智慧財產權資訊適時揭露,將能爭取到更多外部資金投入,降低募資之成本。   據此,新加坡交易所(Singapore Exchange,SGX)於同年4月1日發佈智財揭露指引鼓勵上市企業揭露智財權利資訊。其中,除涉及可能損及公司商業活動之營業秘密,或涉及專利權之申請等事項外,公司對於智慧財產權之揭露訊息原則包括以下: 1.說明或解釋智財權對於公司經營業務之價值所在 。 2.為確保非專業的投資者都能夠理解揭露資訊,用語不受行話以及技術語言之限制。 3.解釋有關的智財權於根本上影響到公司的經營業務,以及獲利能力和公司及其子公司之前景與整體影響。   實際上,香港交易所亦曾於2012年2月發佈「上市文件智慧財產權揭露規範」,希望申請上市的企業能加強在上市文件中的智慧財產權揭露。該規範與新加坡證交所之智財揭露指引之內容,並無二致,皆希望透過智財權資訊之揭露,以增加投資人之投資意願;亦即,揭露程度越高,公司募資成本越低。

印度政府公告個人資料保護法草案

  2018年7月27日印度電子及資訊科技部(Ministry of Electronics and Information Technology, MeitY)公告個人資料保護法草案(Protection of Personal Data Bill),若施行將成為印度首部個人資料保護專法。   其立法背景主要可追溯2017年8月24日印度最高法院之判決,由於印度政府立法規範名為Aadhaar之全國性身分辨識系統,能夠依法強制蒐集國民之指紋及虹膜等生物辨識,國民在進行退稅、社會補助、使用福利措施等行為時都必須提供其個人生物辨識資料,因此遭到人權團體控訴侵害隱私權。最高法院最後以隱私權為印度憲法第21條「個人享有決定生活與自由權利」之保護內涵,進而認為國民有資料自主權,能決定個人資料應如何被蒐集、處理與利用而不被他人任意侵害,因此認定Aadhaar專法與相關法律違憲,政府應有義務提出個人資料專法以保護國民之個人資料。此判決結果迫使印度政府成立由前最高法院BN Srikrishna法官所領導之專家委員會,研擬個人資料保護法草案。   草案全文共112條,分為15章節。主要重點架構說明如下: 設立個資保護專責機構(Data Protection Authority of India, DPAI):規範於草案第49至68條,隸屬於中央政府並由16名委員所組成之委員會性質,具有獨立調查權以及行政檢查權力。 對於敏感個人資料(Sensitive personal data)[1]之特別保護:草案在第4章與第5章兩章節,規範個人與兒童之敏感個人資料保護。其中草案第18條規定蒐集、處理與利用敏感個人資料前,必須獲得資料主體者(Data principal)之明確同意(Explicit consent)。而明確同意是指,取得資料主體者同意前,應具體且明確告知使用其敏感個人資料之目的、範圍、操作與處理方式,以及可能對資料主體者產生之影響。 明確資料主體者之權利:規範於草案第24至28條,原則上資料主體者擁有確認與近用權(Right to confirmation and access)、更正權(Right to correction)、資料可攜權(Right to data portability)及被遺忘權(Right to be forgotten)等權利。 導入隱私保護設計(Privacy by design)概念:規範於草案第29條,資料保有者(Data fiduciary)應採取措施,確保處理個人資料所用之技術符合商業認可或認證標準,從蒐集到刪除資料過程皆應透明並保護隱私,同時所有組織管理、業務執行與設備技術等設計皆是可預測,以避免對資料主體者造成損害等。 指派(Appoint)資料保護專員(Data protection officer):散見於草案第36條等,處理個人資料為主之機構、組織皆須指派資料保護專員,負責進行資料保護影響評估(Data Protection Impact Assessment, DPIA),洩漏通知以及監控資料處理等作業。 資料保存之限制(Data storage limitation):規範於草案第10條與第40條等,資料保有者只能在合理期間內保存個人資料,同時應確保個人資料只能保存於本國內,即資料在地化限制。 違反草案規定處高額罰金與刑罰:規範於草案第69條以下,資料保有者若違反相關規定,依情節會處以5億至15億盧比(INR)或是上一年度全球營業總額2%-4%罰金以及依據相關刑事法處罰。 [1]對於敏感個人資料之定義,草案第3-35條規定,包含財務資料、密碼、身分證號碼、性生活、性取向、生物辨識資料、遺傳資料、跨性別身分(transgender status)、雙性人身分(intersex status)、種族、宗教或政治信仰,以及與資料主體者現在、過去或未來相連結之身體或精神健康狀態的健康資料(health data)。

歐盟提出人工智慧法律調和規則草案

  歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。   歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。   本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。   AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。

歐洲將限制對孩童販售暴力遊戲軟體

  歐洲各國司法部長於1月16日與歐盟司法與內政委員會委員Franco Frattini進行會商,包括德國、英國、希臘、芬蘭、西班牙以及法國之司法部長皆同意支持建立全歐一致之共同規範以限制對孩童販售暴力遊戲軟體,並將據此檢視各國電腦軟體相關法制。   Franco Frattini委員過去基於「兒童保護應不分國界」之理念,曾建議建構以歐盟為範圍的標識規範,並鼓勵以兒童為銷售對象之遊戲業者建立自律規約,惟歐盟最後決議應交由各國政府自行規範。而Franco Frattini委員此次提案受到本屆歐盟輪值主席國-德國-司法部長Brigitte Zypries的支持,並指示相關規範建構之第一步,即是出版遊戲軟體分級摘要供家長參考,此摘要將很快於歐盟網站上公布。Zypries認為關於暴力遊戲的限制,歐盟應與國際進行合作溝通,由其針對美國與日本;Frattini則期望在歐盟27個會員國建構專門針對此類遊戲的標識規範,至於其他種類之遊戲則仍由各國政府自行管理。   目前國際間針對暴力遊戲限制,多數國家仍採取提供遊戲分級或相關指導守則之方式,於歐洲,僅英國與德國特別訂定法律加以規範,尤其在英國,遊戲軟體內容若具有對人類或動物之寫實暴力場景,或包含人類的性愛行為者,必須送交英國電影分級委員會(British Board of Film Classification,簡稱BBFC)審查。而美國已有部分州議會通過限制對未成年人販售遊戲的法律,但幾乎皆被「違反美國憲法修正條文第1條-言論自由保障」之理由成功推翻。

TOP