歐洲人權法院(European Court of Human Rights,簡稱ECtHR)於2025年4月8日就Green v. The UK案作成判決,針對國會議員發言揭露個資是否構成隱私權侵害之爭議,強調國家就衡平立法權與司法權的界線、言論自由與隱私保護等利益享有裁量權,駁回了申訴人之請求。 一、事實背景 本案起源於英國每日電訊報(Telegraph)試圖就英國零售集團Arcadia的前員工針對其董事長Philip Green的職場性騷擾與霸凌指控進行報導。先前,Arcadia及Green已與涉及相關糾紛的員工達成了和解協議,依據協議所附保密協定,員工除正當揭露(如向警察揭露犯罪)外不得洩露相關資訊。Green於Telegraph於報導前徵求當事人評論時發現資訊遭洩露,隨即向法院申請禁制令與暫時禁制令,英國上訴法院嗣後批准了暫時禁制令,認定Telegraph獲得的資訊很可能來自違反保密協定的揭露,也不認為欲報導的內容當然具備凌駕當事人可能蒙受之損害的公共利益。Telegraph最終尊重了暫時禁制令。惟隔日,一位英國上議院議員援引言論免責權,於議會發表了雖不涉及細節,但具體提及Green身分和關於其性騷擾、霸凌的指控,並提及Telegraph遭禁制報導一事。Green因此向議會申訴,認為議員違反了司法保密規則(sub judice rule)(編按:上議院曾做成決議,認除非具全國重要性,議員不得於動議、辯論或質問中論及繫屬於法院中的個案)及濫用免責權,但上議院標準專員(House of Lords Commissioner for Standards)認為司法保密規則不屬於《上議院行為準則》。Green嗣後在法院中試圖向Telegraph請求賠償,認為Telegraph應要為議員的發言負責,違反了禁制令,並要求提供線人身分。Telegraph抗辯,在議員享有免責權的前提下,法院毋庸受理本案處理其責任問題。Green向ECtHR提出申訴,主張國家對議員使用免責權揭露受禁制令約束的資訊的權力缺乏事前和事後控制,侵犯了其受歐洲人權公約(ECHR)第8條保障的私生活權。 二、法院判斷 法院認為由於受暫時禁制令保護的資訊被揭露,Green的私生活權利確實受到干預。然而,法院不認為國家違反了公約課予國家保護私生活權之積極義務(positive obligation)。核心理由在於:國家對如何履行積極義務有廣泛的裁量權,且於各國就保護方式較無共識,或涉及基本權利間之衡平時,法院尤應尊重裁量空間。 針對本案,法院認為:(1)議會中的言論自由享有較高程度的保護,對其干涉需要非常重大的理由(very weighty reasons);(2)涉及司法權與立法權的具體界線,以及言論自由與隱私保護的利益衡量;(3)必須考量議會自治原則在多國之間有廣泛共識;(4)英國並非完全沒有針對國會議員發言的事前、事後控制措施。儘管非屬《上議院行為準則》,但上議院所做成的司法保密規則決議,仍屬一定程度的事前控制。事後來看,國會議員若確實構成濫用免責權,法院也可以判處蔑視法庭罪。 法院總結認為,基於原則上各國議會較國際法院,更適合評估限制議會行為之必要性與手段,法院要取代這個判斷須要非常重大的理由,但本案中Green並無法成功論述這個理由存在,因此駁回Green的主張。
美國國家標準暨技術研究院規劃建立「人工智慧風險管理框架」,並徵詢公眾對於該框架之意見美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)為管理人工智慧對於個人、組織以及社會所帶來之風險,於2021年7月29日提出將建立「人工智慧風險管理框架」(Artificial Intelligence Risk Management Framework, AI RMF)之規畫並徵詢公眾意見,截止日為9月15日,並預計於10月發布正式報告。 依照NIST說明,公眾所建議之人工智慧風險管理框架,可促進人工智慧之可信賴性,其中包含如何應對並解決人工智慧於設計、發展及使用過程中所遭遇之「精確度」(accuracy)、「可解釋性」(explainability)、「偏見」(bias)等議題。此外,上開管理框架預計為非強制性、供企業自願性使用於人工智慧設計、發展、使用、衡量及評估之人工智慧標準。 依現有公眾意見徵詢結果,其中DeepMind公司建議於人工智慧設計初期,必須預先構思整體系統之假設是否符合真正社會因果關係。舉例言之,當設計一套可預測民眾健保需求程度之系統時,如輸入參數僅考量民眾於醫療上的花費,將使僅有可負擔較高醫療費用之民眾被歸類為健保需求程度較高者,從而導致健保制度排擠經濟負擔程度較差之公民,故在設計系統時,應從預先設定之假設事實反面(counter-factual)思考並驗證是否會產生誤差或公平性之問題(例如預先思考並驗證「醫療費用支出較低之民眾是否即可被正確歸類為健保需求度低之民眾」)。惟進行上述驗證需要大量社會資料,因此DeepMind也建議NIST應建立相關機制,使這些社會資料可以被蒐集、使用。 此外,亦有民眾建議管理框架應有明確之衡量方法以及數值指標,以供工程界遵循。同時鑒於人工智慧發展極為快速,未來可能有不同於以往之人工智慧類型出現,故亦建議NIST應思考如何在「建構一套完整且詳細之人工智慧治理框架」與「保持人工智慧治理框架之彈性與靈活性」之間取得平衡。 最後,目前也有許多徵詢意見指出,許多人工智慧治理之目標會相互衝突。舉例言之,當NIST要求人工智慧系統應符合可解釋性,則人工智慧公司勢必需要經常抽取人工智慧系統中之「數據軌跡」(audit logs),惟數據軌跡可能被認為是使用者之個人資料,因此如何平衡或完善不同治理框架下之目標,為未來應持續關注之議題。
初探與省思我國法制下之侵權行為適用於非依軌道行駛之自動駕駛車輛之過失內涵初探與省思我國法制下之侵權行為適用於非依軌道行駛之自動駕駛車輛之過失內涵 資訊工業策進會科技法律研究所 2019年03月15日 壹、事件摘要 於2018年03月18日晚間10時許,美國亞利桑那州(Arizona,下稱Arizona)一名49歲的婦人,遭到配備Uber自動駕駛系統之車輛[1],在運行自動領航模式(Autopilot)下撞擊,雖然該婦人立即送往醫院,但仍回天乏術而在醫院中去世。就在前開事故發生後,Arizona州長Doug Ducey因此下令其暫停測試。[2] 此外,同年12月11日晚間10時許,在我國有一輛配備自動輔助駕駛功能的Tesla,疑似駕駛人精神不濟因而未能及時注意車前狀況,導致車禍發生,雖然肇責是否牽涉Tesla之自動輔助駕駛功能或駕駛人本身有無疲勞駕駛等情事,有待進一步釐清。[3] 綜上,不論測試或道路駕駛,現今社會已不乏具有一定自動駕駛等級之車輛於路上行駛,然而在推廣、研發或應用自動駕駛車輛(下稱自駕車)的同時,若不幸發生類似前開新聞之(車禍)事故時,相關肇事責任究應如何釐清,隨著我國已於2018年12月19日公布無人載具科技創新實驗條例以積極推動自駕車相關應用,更愈顯重要,為解決前開肇事相關疑慮,本文擬針對民事上之「過失」本質,反思自駕車相關應用可能延伸的事故責任,是否因應科技發展而有不同的過失內涵。 貳、重點說明 承上,面對自駕車相關科技與應用的世界洪流,若發生車禍等交通事故時,當事人相關之損害賠償請求,仍大多以民法上之侵權行為作為基礎,雖事故肇因種類眾多,亦常見各類的肇因共同造成事故發生,但本文考量相關議題繁複,以下僅就非依軌道行駛之自駕車、駕駛人過失內涵等框架下依序進行初探與反思: 一、我國侵權行為損害賠償係以行為人有無具抽象輕過失為斷 車禍之發生,若涉及駕駛人之行為者,受有不論財產或人身損害之人而欲請求賠償者,無論係依據民法第184條以下何條侵權行為之規定(即民法第184條第1項前段、同條項後段或第191條之2等規定),請求駕駛自駕車之人賠償,前提均為駕駛人具有過失,差別僅在舉證責任是否由請求權人(受有損害之人)負擔。 承上,既然前開侵權行為之重要成立要件為過失,其具體內容為則為駕駛人之注意義務應至何種程度,然在我國民事過失責任之架構上,有不同程度上之區分,即分別為抽象輕過失、具體輕過失及重大過失三種。申言之,抽象輕過失為欠缺應盡善良管理人之注意者義務;具體輕過失者為欠缺應與處理自己事務為同一注意者;重大過失者為顯然欠缺普通人之注意者[4]。 對此,實務見解[5]以及學者[6]歷來均認侵權行為之過失標準,應以行為人是否克盡客觀化之過失標準─抽象輕過失,倘否,則應負擔過失之賠償責任,是以,就此脈絡推論,自駕車之駕駛人若有違善良管理人注意義務致車禍發生且使他人受損害,即應負損害賠償責任。 二、駕駛人注意義務與自駕車自動駕駛程度間之互動 根據引領世界自駕車標準的領銜者─國際汽車工程師學會(Society of Automotive Engineers International,下稱SAE)所分類之自動化駕駛等級,區分為等級0至等級5(共6個等級),而等級3後之自駕車即開始逐漸將環境監控的任務從駕駛人移轉至車輛本身,而駕駛人僅在特殊條件下,方須接管駕駛車輛,更甚在等級5時是由自駕車在任何狀況下均可自行駕駛,不過在等級2前之等級,環境監控之任務大多在駕駛人身上,自駕車至多僅係協助運行駕駛人之指令[7]。 然而,自駕車駕駛人因車禍所生之侵權行為責任,誠如前述,係以駕駛人存有抽象輕過失作為前提,而過失之本質,則係雖非故意,但按其情節,(1)行為人(駕駛自駕車之人)應或能注意,卻不注意,或(2)雖可預見侵權行為(車禍肇事)之事實發生,但確信不發生[8],就此,在SAE分類等級2以前之自駕車,因監控環境之任務仍由駕駛人負擔,則該類等級自駕車之駕駛人應與一般車輛之駕駛人,負擔相同侵權行為之注意義務內容(或程度),但等級3至等級5自駕車之各式應用情境,車輛行駛環境之相關監控資訊已轉由車輛本身處理、控管,則駕駛人是否對於自駕車之車禍發生,仍具有可預見性,或得注意並防免之,則不無疑慮。 參、事件評析 綜上,本文所提不同等級自駕車,是否當然得以繼續適用傳統民事侵權行為之過失標準判斷駕駛人有無過失,實有相當程度上之衝突,蓋若自駕車之駕駛人對於行車環境資訊已不如駕駛一般車輛時,實難期待駕駛人對於車禍之發生有何預見可能,或在遇見後積極防免結果發生,倘若一概遵循傳統對車禍侵權行為之高注意義務要求─抽象輕過失責任,或將產生使不明瞭或難以預見該事故原因發生之人,卻必須就非因己誤之結果負責,某程度上似有違過失責任之本質,而質變成為無過失之擔保責任。 據此,本文認為,若要解決前開損害發生須有補償或賠償之問題,或可(1)透過保險、基金等方式填補損害,或(2)具體化等級3至等級5自駕車之駕駛人應負何等注意義務,如駕駛人須隨時處於得以接管車輛操作之狀態,使等級3以上之自駕車所應盡之注意義務與傳統侵權行為之注意義務脫鉤處理(3)與商品責任間進行相關的調和等,然而無論如何,對於此等問題或疑慮,究竟應採何方向或多方進行,甚或以其他方式解決,則有待後續更進一步的討論與分析。 [1] Uber於該州進行自動駕駛車輛之測試。 [2] ADOT director's letter to Uber halting autonomous vehicle tests, ADOT, https://www.azdot.gov/media/News/news-release/2018/03/27/adot-director's-letter-to-uber-halting-autonomous-vehicle-tests (last visited Mar. 21, 2019); Ryan Randazzo, Arizona Gov. Doug Ducey suspends testing of Uber selfdriving cars, azcentral, Mar. 26, 2018, https://www.azcentral.com/story/news/local/tempe-breaking/2018/03/26/doug-ducey-uber-self-driving-cars-program-suspended-arizona/460915002/ (last visited Mar. 21, 2019); Ryan Randazzo, Bree Burkitt & Uriel J. Garcia, Self-driving Uber vehicle strikes, kills 49-year-old woman in Tempe, azcentral, Mar. 19, 2018, https://www.azcentral.com/story/news/local/tempe-breaking/2018/03/19/woman-dies-fatal-hit-strikes-self-driving-uber-crossing-road-tempe/438256002/ (last visited Mar. 21, 2019). [3] 蘋果日報,〈台灣首例!特斯拉自動駕駛闖禍 國道上撞毀警車〉,2018/12/12,https://tw.appledaily.com/new/realtime/20181212/1482416/ (最後瀏覽日:2019/03/21)。 [4] 96年台上字第1649號判決。 [5] 19年上字第2476號判例。 [6] 王澤鑑,《侵權行為法》,自版,頁308-309(2011)。 [7] SAE International Releases Updated Visual Chart for Its “Levels of Driving Automation” Standard for Self-Driving Vehicles, SAE International, https://www.sae.org/news/press-room/2018/12/sae-international-releases-updated-visual-chart-for-its-%E2%80%9Clevels-of-driving-automation%E2%80%9D-standard-for-self-driving-vehicles (last visited Mar. 22, 2019). [8] 97年度台上字第864號判決。