日本政府擬建構自動駕駛實驗資料收集和共享體制

  日本內閣下設之日本經濟再生本部(日本経済再生本部),為實現2017年6月於「未來投資戰略2017」所提出之建立實驗資料共享體制政策,於2017年8月31日起舉辦自動駕駛官民協議會(自動走行に係る官民協議会),邀請政府相關部門及民間專家等關係人士,檢討自動駕駛實驗結果、實驗資料之共享,以及根據民間需求進行實驗計畫之工程管理等制度的整備方向,預計於年內針對複雜的駕駛環境制定共通指標,以釐清哪些資料是應收集之實驗資料,建構自動駕駛實驗資訊共享、收集體制。自動駕駛官民協議會預計在未來幾次會議中,針對應收集之實驗資料、標準格式、體制、實驗計畫的進程管理、官民合作事項等進行討論,並將在未來投資會議中報告檢討結果,其結果將與明年度之成長戰略一同反映於「官民ITS‧構想藍圖」(官民ITS構想・ロードマップ)中。

本文為「經濟部產業技術司科技專案成果」

※ 日本政府擬建構自動駕駛實驗資料收集和共享體制, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7871&no=67&tp=1 (最後瀏覽日:2026/01/30)
引註此篇文章
你可能還會想看
英國通過《2018自動與電動車法》

  英國於2018年7月通過自動與電動車法(Automated and Electric Vehicles Act 2018),對自動與電動車輛之定義、保險議題以及電動車充電基礎設施進行規範。   針對自駕車之保險議題,該法採取「單一保險人模式」(Single Insurer Model),無論是駕駛人自行駕駛或自動駕駛,駕駛人均應購買自駕車保險,讓所有用路人對於可能之安全事故均有保險可涵蓋並追溯責任。本法其他重要規定如下; 本法未直接賦予自駕車(Automated vehicle)明確定義,管理方式係由主管機關自行認定並建立清單。本法僅要求清單內之車輛應設計或調整為至少於某些特定狀況能安全行駛之自動駕駛模式。 已納保之自駕車行駛時所造成之損害,將由車輛之承保公司負擔損害賠償責任。 未納保之自駕車若發生事故,則車主應負擔損害賠償責任。 若由保險人負損害賠償責任,則受害人將可依現行法規提出損害賠償請求。保險人則可依普通法與產品責任相關規定,向應對事故負責之單位或個人提出損害賠償請求。   於電動車充電基礎設施之部分,該法之目的則是確保公共充電站適用於所有市面上之電動車輛,並就費用、付費方式以及相關安全標準進行規範,以增進消費者之信任。該法第20條並授權主管機關訂定相關授權辦法,以達上述目標。

著作權侵權暫停了妙娃種子園藝盆的銷售

  3D列印設計分享網站Shapeways在週五收到從任天堂神奇寶貝國際公司一個停止侵權的函(cease and desist),是有關於藝術家Claudia Ng的類似神奇寶貝妙娃種子的陶瓷園藝盆設計,他將園藝盆在Shapeways網站上販售,但Shapeways在收到警告信函後移除了網站上的產品列表。   根據Claudia Ng所述,任天堂神奇寶貝國際公司是要求所有有關此模型相關的收益。原本產品列表上並未直接將神奇寶貝遊戲名稱用於此盆栽設計名稱,Claudia Ng標註牠是植物怪獸(succulent monster),但產品列表中數次提及了神奇寶貝公司。最新版的設計將近2.5英吋(6.5公分)高,售價為49美元,目前有多種顏色提供銷售。   Claudia Ng表示:我想這是落於衍生和轉化著作的範疇,我並非一個律師,但我猜測這至少是最廣義的相關法規解釋裡。發生這件事我並不意外,只不過我原本預期該公司會追蹤的是那些有更多侵權設計的人。雖然我承認我個人喜愛的神奇寶貝啟發了我的靈感,但不是神奇寶貝的粉絲也都會喜歡這設計的原因就在於神奇寶貝本身的動物本質(generic-ness)。大多數都公認牠像一隻肥貓。而且我也被要求去設計其他的動物或生物。   Claudia Ng可能會被安排和任天堂神奇寶貝國際公司接觸,雖然他無法確定從這場可能的會議中會發生甚麼事。   3D列印設計分享上有可能設計的產品會侵害他人權利,設計者在靈感啟發上到設計成品時皆須有避免侵權的考量,以免不只無法獲利也有侵權的風險。

加拿大政府就生成式人工智慧對著作權的影響進行公眾諮詢

加拿大政府於2023年10月23日至12月4日針對「生成式人工智慧對著作權的影響」(consultation on the implications of generative artificial intelligence for copyright)進行公眾諮詢,以期了解生成式人工智慧對於加拿大著作權市場之變化,進而修訂《著作權法》(Copyright Act),本次諮詢文件中討論重點整理如下: 1.文字和資料探勘(Text and Data Mining, TDM):是否需要因應TDM修改加拿大原本的著作權法,包含著作權法中合理使用行為(29條)和暫時性重製行為(30.71條)等得不構成侵害之例外條款。學者、AI使用者以及AI技術團體大多持肯定見解,認為TDM行為中使用的著作時不需要權利人的著作權授權;然創意產業則多持否定見解,認為不應該為TDM創設例外,否則將會使得TDM所使用之作品原著作人無法主張權利以獲得授權金。 2.人工智慧生成作品之著作人身分及著作權歸屬:因利用生成式人工智慧所創作或輔助創作之文字、圖像和音樂有作者身分不明確之虞,因此加拿大政府希望可以對此加以澄清,並討論是否需要修改原本的著作權法案中相關規定。針對作者身分不明確之爭議,加拿大政府提出了三種可能的規範模式: (1)闡明著作權保護只適用於自然人創作的作品; (2)將人工智慧生成作品之作者歸屬於在創作作品時運用技能和判斷力的自然人,凡自然人可以在人工智慧技術輔助下創作的作品中貢獻足夠的技能和判斷力,即可被視為該作品的作者; (3)為人工智慧生成的作品創設一套新的權利。 3.人工智慧之侵權責任:人工智慧係透過大量的資料庫來生成一項作品,過程中可能出現侵害他人著作權之情形,而加拿大現行的著作權法框架下很難認定侵權行為之責任歸屬。加拿大現行的著作權法要求被侵權人(著作人)必須證明侵權人明知其重製行為侵犯他人著作權,且就該他人著作加以重製,但一般人難以瞭解人工智慧系統開發及訓練過程,因此難證明人工智慧系統研發與利用過程中的業者、工程師或其他相關人等是否有侵權行為。因此加拿大政府希望利害關係人就此議題提供更多意見,以協助將來修法、提高市場透明度。 生成式人工智慧雖然提供了便利的創作方式並帶來巨大經濟利益,卻也可能侵害他人著作權,因此平衡著作人之權利並兼顧經濟發展是加拿大政府及國際社會課正積極解決的議題。

歐盟議會發布《可信賴人工智慧倫理準則》

  2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。  問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。

TOP