自駕車之發展與挑戰-以德國法制為借鑑

刊登期別
第30卷,第12期,2018年12月
 
隸屬計畫成果
經濟部技術處科技專案研發成果
 
摘要項目
  交通領域的自動化、聯網化及數位化,驅動自動駕駛及智慧運輸系統等技術之快速發展。目前已有許多國家開放自動駕駛道路測試,德國更為龐大的汽車產業清除自駕車開發及測試之障礙,透過修法允許自駕車有條件於道路使用,除了帶來更多的便利性及經濟成長外,自動駕駛的利用也伴隨許多法制議題有待進一步討論,本文將介紹歐盟與德國自駕車相關法制政策發展,並進一步聚焦於自駕車道德倫理議題及預防性措施、個資保護與資料活用議題、及民事責任歸屬等議題,並從國外相關經驗作為我國法制發展之參考。

本文為「經濟部產業技術司科技專案成果」

※ 自駕車之發展與挑戰-以德國法制為借鑑, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8170&no=0&tp=1 (最後瀏覽日:2026/03/16)
引註此篇文章
你可能還會想看
美國參議員提出「消費者網路視訊選擇法」草案

  越來越多消費者由網際網路觀賞視訊內容,保護新興視訊業者之市場競爭力也越加重要。美國參議員John D. Rockefeller於2013年11月發佈「消費者網路視訊選擇法(Consumer Choice in Online Video Act)」草案,塑造一個以消費者需求為中心的視訊市場,提供完全的單頻單賣(a la carte),使消費者有權力選擇想看的節目、決定想看的時間、挑選收看的方式,並且只為真正收看的內容付費。   此外,本法案亦規範網路服務業者必須提供消費者更完整精確的帳單資訊,以增進消費者權益。在促進市場競爭的目的下,本法案也賦予新興視訊產業基本的保護,防止既有業者之反競爭行為,使市場能有效競爭,帶給消費者更多利益。   該法案的主要規範內容簡介如下: ‧管制既有之有線電視、衛星電視與大型媒體公司對網路視訊服務業者的反競爭行為。 ‧提供網路視訊服務業者合理的取得各種節目內容之能力,使他們能提供給消費者更多節目與服務的選擇。 ‧管制寬頻服務業者不得降低其市場競爭者之網路傳輸品質,以保護網路視訊業者接觸消費者、提供服務的管道。 ‧提供消費者更為透明與容易理解的帳單資訊。消費者在申請網路服務時,將能得到更為清晰易懂的服務契約與條款的資訊。 ‧指示聯邦通信委員會持續監督寬頻服務之資費條件,確保這些資費條件不被用於反市場競爭行為。   隨著寬頻服務的普及,網際網路能夠提供更多元的內容,一方面消費者能夠有更多的選擇,確保市場持續有效競爭是非常重要的,本法案對我國而言亦有相當參考價值。

FCC同意基本型電子閱讀器可於一年期限內豁免於無障礙義務

專利戰爭:柯達告蘋果與宏達電 侵犯影像專利

  伊士曼柯達(Eastman Kodak)於1月10日向美國紐約州羅徹斯特(Rochester)聯邦法院與國際貿易委員會(ITC)提起訴訟,控告蘋果、宏達電侵犯5項有關數位相機影像處理之專利,意圖以法律訴訟作為擴大專利權價值的手段。   目前擁有超過1000項影像技術專利的131歲老店柯達,試圖出售1000多項專利權及提出專利訴訟,以挽回面臨破產邊緣的危機。柯達認為蘋果侵犯4項和數位相機影像相關專利(美國專利字號7,210,161、7,742,084、7,453,605、7,936,391),其中包含使用者可直接透過網路或e-mail傳送相機內照片的技術。而宏達電除被控侵犯上述4項專利之餘,柯達亦向國際貿易委員會申訴宏達電侵犯第5項的影像預覽技術專利(美國專利字號6,292,218),之前柯達方以該專利起訴蘋果和RIM。柯達要求蘋果立即停售侵權產品,同時支付3倍損失賠償。相關人士表示,柯達一直在尋找願意買下該公司影像專利的業者,起訴科技龍頭舉動之目的在於尋求好買家。   除此之外,柯達亦宣布進行業務重組,從3個部門合併成為2個部門,雖然對外宣稱乃為節省成本開支、盼能轉虧為盈,不過在可能破產的疑慮下,柯達內部氣氛相當低迷,出售技術專利仍無進展,加上大批主管相繼離職,過去兩周有3位董事辭職,上周四CCO(Chief Communications Officer)Gerard Meuchner宣佈離職之後,開始傳言柯達募資未成,未來數周可能就會宣布破產。

美國國家標準暨技術研究院發布「人工智慧風險管理框架:生成式AI概況」

  美國國家標準暨技術研究院(National Institute of Standard and Technology, NIST)2024年7月26日發布「人工智慧風險管理框架:生成式AI概況」(Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile),補充2023年1月發布的AI風險管理框架,協助組織識別生成式AI(Generative AI, GAI)可能引發的風險,並提出風險管理行動。GAI特有或加劇的12項主要風險包括: 1.化學、生物、放射性物質或核武器(chemical, biological, radiological and nuclear materials and agents, CBRN)之資訊或能力:GAI可能使惡意行為者更容易取得CBRN相關資訊、知識、材料或技術,以設計、開發、生產、使用CBRN。 2.虛假內容:GAI在回應輸入內容時,常自信地呈現錯誤或虛假內容,包括在同一情境下產出自相矛盾的內容。 3.危險、暴力或仇恨內容:GAI比其他技術能更輕易產生大規模煽動性、激進或威脅性內容,或美化暴力內容。 4.資料隱私:GAI訓練時需要大量資料,包括個人資料,可能產生透明度、個人資料自主權、資料違法目的外利用等風險。 5.環境影響:訓練、維護和運行GAI系統需使用大量能源而影響碳排放。 6.偏見或同質化(homogenization):GAI可能加劇對個人、群體或社會的偏見或刻板印象,例如要求生成醫生、律師或CEO圖像時,產出女性、少數族群或身障人士的比例較低。 7.人機互動:可能涉及系統與人類互動不良的風險,包括過度依賴GAI系統,或誤認GAI內容品質比其他來源內容品質更佳。 8.資訊完整性:GAI可能無意間擴大傳播虛假、不準確或誤導性內容,從而破壞資訊完整性,降低公眾對真實或有效資訊的信任。 9.資訊安全:可能降低攻擊門檻、更輕易實現自動化攻擊,或幫助發現新的資安風險,擴大可攻擊範圍。 10.智慧財產權:若GAI訓練資料中含有受著作權保護的資料,可能導致侵權,或在未經授權的情況下使用或假冒個人身分、肖像或聲音。 11.淫穢、貶低或虐待性內容:可能導致非法或非自願性的成人私密影像或兒童性虐待素材增加,進而造成隱私、心理、情感,甚至身體上傷害。 12.價值鏈和組件整合(component integration):購買資料集、訓練模型和軟體庫等第三方零組件時,若零組件未從適當途徑取得或未經妥善審查,可能導致下游使用者資訊不透明或難以問責。   為解決前述12項風險,本報告亦從「治理、映射、量測、管理」四大面向提出約200項行動建議,期能有助組織緩解並降低GAI的潛在危害。

TOP