隨著現代德國城市興起騎乘小型電動車(例如:電動滑板車和電動踏板車)風潮,德國聯邦交通及數位基礎設施部(Bundesministerium für Verkehr und digitale Infrastruktur, BMVi)制定小型電動車條例(Elektrokleinstfahrzeuge-Verordnung),以實現清潔現代化運輸並確保道路安全,該條例於2019年6月15日正式生效,並取代原有的行動輔助工具條例(Mobilitätshilfenverordnung),此外,德國聯邦車輛運輸管理局(Kraftfahrt-Bundesamt, KBA)並陸續公布經審驗合格之小型電動車清單。
由於歐洲議會及理事會通過的二輪或三輪和四輪車核可及市場監督規則(EU Nr. 168/2013)將自動平衡車輛和無座椅車輛特別排除,因此BMVi制定行動輔助工具條例,以規範例如Segways的新型運輸工,然而隨著市場推出更多新型小型電動車,原行動輔助工具條例已無法有效規範,因此制定小型電動車條例,除將原本核可小型電動車納入適用外,而本條例所稱小型電動車定義為第一,具備轉向或支撐桿;第二,最高時速設計6~20公里/小時;第三,功率限制為500瓦(自動平衡運輸工具為1400瓦);第四,最低安全要求(例如制動裝置和照明系統,駕駛動態和電動安全設備)。另條例規範重點如下:(1)小型電動車須年滿14歲方能使用,但無須考取任何駕駛執照;(2)小型電動車應行駛於自行車道上,如該段道路無設計自行車道可行駛於側車道,並禁止行駛於人行道或步行區,且不得於踏板上另搭載他人或物品及攀附於其他車輛;(3)須遵守其他一般道路交通法規,特別是保持謹慎駕駛以及酒駕規定須遵守相關規範;(4)保險部分,因小型電動車輛屬於機械動力車輛,故必須投保,並將投保證明貼紙黏貼於車輛上。
另外,BMVi主張並支持小型電動車可攜帶上公共交通工具,然原則上,攜帶小型電動車搭乘公共交通工具,受貨物運輸規範約束,應視電車及無軌電車等固定路線動力車輛之一般條件及服務條例(BefBedV)第11條,或有關運輸公司之特殊運輸條件規範個案判斷。
本文為「經濟部產業技術司科技專案成果」
英國氣候過渡計畫工作小組(Transition Plan Taskforce,以下稱TPT)於2023年10月9日公布其氣候揭露報告框架(TPT Disclosure Framework,下稱「框架」)最終版本及使用指引。TPT是英國財政部在2022年4月成立,負責建立氣候過渡計畫準則。TPT則於2022年11月提出框架草案,並開始徵詢產官學界意見,最後提出正式版本。 TPT框架建議企業以宏觀、有策略的方式制定氣候過渡計畫。TPT框架從企圖心、行動力和當責性三項原則出發,分別就五個必須揭露的事項說明如何在氣候揭露報告中呈現企業的氣候過渡計畫: 一、企圖心:說明企業的基礎事項,例如氣候戰略目標和商業模式。 二、行動力:說明過渡計畫的執行策略、以及擴大參與的策略。 三、當責性:說明將採用哪些指標與標的來監督計畫的執行、以及如何將過渡計畫融入企業的治理當中。 TPT也配合框架內容制定行業指引,目前已公布40個行業摘要(Sector Summary),簡述各行業可用的脫碳手段、指標與目標。未來還將公布針對銀行業、資產擁有者、資產管理者、電力公用事業和電力發電機、食品與飲料、金屬與礦業、石油和天然氣等7個行業的深度剖析(Sector Deep Dives)。 此外,TPT網站上也提供TPT框架與相關國際主流框架或準則之比較報告給各界參考,要使這套由英國自行開發、為英國內部量身打造的框架也能接軌國際,其未來實施成效值得繼續追踪觀察。
紐約市議員向議會提出禁止行動裝置相關業者共享客戶位置資訊的法案紐約市議員Justin Brannan於2019年7月23日向紐約市議會提交一項內容為禁止電信公司和手機應用程式開發商與第三方共享客戶位置資訊(location data)的法案(Int 1632-2019, Prohibition on sharing location data with third parties.)。 該法案原則上,禁止電信公司和手機應用程式開發商與第三方(例如:行銷人員)共享客戶的位置資訊,主要原因在於一般客戶並不清楚自己的位置資訊被共享給第三人,且對於第三人取得其位置資訊後的利用行為存有疑慮。又,位置資訊應屬個人隱私的一部分,故未取得客戶本人同意,即共享其位置資訊無疑是對客戶個人隱私的侵犯。如公司違反法案規定,執法機關對該公司之罰款,以「行為次數」作為計算單位,每次課予1,000美元,惟就同一名受害者,如一天內有數個違法行為,則當天罰款上限為10,000美元。同時,該法案賦予位置資訊被違法共享的當事人,得就其權利被侵害之事實,向法院提訴訟,以為救濟。 不過,該法案並非「絕對」禁止位置資訊的共享,如屬下列情形,例外可共享: 為配合執法機關執行法定職務之所需,如:法律調查等程序,而提供客戶之位置資訊。 為911緊急服務之所需提供,或為免除本人之生命或財產上之急迫危險,提供其位置資訊。 聯邦法律、州法或地方法明文要求應提供。 客戶授權電信公司或手機應用程式開發商得與第三方共享其位置資訊。 這部法案主要目的在於,保障行動裝置使用者的位置資訊,不會在當事人不知情的情形下被提供給第三方。雖然目前該法案尚在審議中,但未來如果通過,紐約市將成為禁止出售個人行動裝置位置資訊的先鋒,同時其執行結果勢必也將成為關注焦點。
歐洲央行提出7500億歐元之「緊急債券收購計畫」以因應新冠肺炎疫情歐洲央行(European Central Bank, ECB)於2020年3月18日提出7500億歐元之「緊急債券收購計畫」(Pandemic Emergency Purchase Programme),紓困金額占歐盟年GDP之7.3%,以協助歐盟面臨新型冠狀病毒(covoid-19)所帶來之經濟衝擊,同時也減緩再生能源產業因疫情所帶來之影響。 就此,歐洲央行總裁Christine Lagarde表示,對於紓困對象及方法,歐洲央行將採取不分產業類別自市場購買公債或私人債券之方式,以因應疫情所帶來之影響,其中也包含歐盟投資銀行(European Investment Bank, EIB)所發行之「綠色債券」(Green Bond)。又綠色債券係歐盟投資銀行於2007年所發行,又名「氣候意識債券」(Climate Awareness Bond),職是故,歐洲央行針對歐盟投資銀行綠色債券進行紓困將使再生能源產業蒙受其利。 依歐洲央行之「緊急債券收購計畫」,歐洲央行僅得自次級市場(Secondary Market)購買債券,而不得直接自初級市場(Primary Market)購買,亦即歐洲央行僅得自價證券買賣之交易市場購買債券,而不得直接購買首次出售之有價證券,此項限制,也包含歐盟投資銀行所發行之綠色債券。 以歐盟投資銀行綠色債券為例,歐洲央行之操作機制在於透過此項購買手段,提升歐盟投資銀行綠色債券之市場價格,同時讓歐盟投資銀行面對投資人時,可以享有較為優渥之議價空間,以降低歐盟投資銀行未來所要付給投資人之利率。同時歐洲央行可再進一步降低對於歐盟投資銀行之利息,進一步降低歐盟投資銀行因發行綠色債券所帶來之利息壓力,促使綠色產業得以因應疫情之衝擊。 如此歐洲央行即達成其目的,減緩投資市場之震盪,同時達到振興經濟產業效益。這也是為何,歐洲央行僅得自次級市場(Secondary Market)購買債券,而不得直接自初級市場(Primary Market)購買債券之原因。
用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).