美國通用汽車公司(General Motors,下稱通用汽車)於2018年01月間向美國運輸部(United States Department of Transportation)遞出請求展示雪弗蘭(Chevrolet)第4代自動駕駛車(此款車種無裝備方向盤與踏板,號稱世界上第一輛可以自我安全駕駛,且無需人類介入駕駛的車輛)的申請,不久後關於以下車禍事件的訴訟即遭提起。
根據Oscar Willhelm Nilsson(即原告,下稱Nilsson)於2018年01月22日向美國舊金山區地方法院針對前開車禍事件提起訴訟的主張,於2017年12月07日早上,其在加州舊金山Oak Street的中央車道上騎乘機車往東行駛,Manuel DeJesus Salazar(即被告,下稱Salazar)於同時地駕駛由通用汽車製造之Chevrolet Bolt vehicle(下稱自駕車),並開啟自動駕駛模式且雙手放開方向盤。Nilsson原騎乘於自駕車後方,不久,自駕車自Nilsson正前方變換車道至左側,Nilsson則繼續筆直前行,但自駕車又隨即往回駛入Nilsson直行騎乘的車道,因此撞擊Nilsson摔倒在地。據此,Nilsson主張通用汽車公司欠缺對於自駕車的自我操作應符合交通法規及規定所賦之注意義務,換言之,自駕車前揭操作車輛駕駛的行為(未注意其他正在行駛的駕駛人而轉換至比鄰車道)具有過失,造成Nilsson受到嚴重的生理及心理損害,且無法工作,產生高額的醫療、護理費用,故請求法院判決原告即Nilsson之主張不少於7萬5千美元之損害賠償、懲罰性損害賠償、律師委任費用以及其他適當且公正之侵權損害賠償等有理由。
然而,根據先前加州車輛管理局所提之文件,通用汽車對Nilsson所描述之車禍經過提出了以下爭執,通用汽車表示自駕車側面有一條長磨損痕跡,應是當時右邊的車道正要匯入中央車道,而自駕車正在自我校正回車道中央,Nilsson卻騎乘機車從兩個車道中間切出來,導致與自駕車發生擦撞。此外,案發當時自駕車的時速為了順應車流而保持在每小時12英里(每小時19公里)行進,而摩托車卻是以大概每小時17英里(每小時27公里)行進,故自駕車應無不當駕駛之情形,反應由機車騎士Nilsson負擔肇事責任,因其未在確認安全之情況下,即從自駕車右側超車,以上通用汽車反駁Nilsson主張的結論,更與舊金山警察局的報告結果不謀而合,即舊金山警察局認為Nilsson在確定安全以前,就嘗試要超越自駕車。
此外,在前開訴訟提起前的2018年01月14日至01月20日的當週,加州車輛管理局表列出自2014年至2018年間的54起自動駕駛車意外報告,大部分的狀況係由駕駛人(而非自動駕駛車本身)對事故負責(雖開啟自動駕駛模式,但駕駛人仍在特定條件下需要自行駕駛)。
即便前開各個報告看似不利Nilsson,但Nilsson的律師Sergei Lemberg卻表示警方的報告應是有利Nilsson,因自駕車早在車禍發生前就已經發覺Nilsson,但卻沒有預留足夠的時間剎車與閃避,因此通用汽車公司所稱之主張並不足採信,更可見自駕車的行為是危險且難以被預測的。
就此,一位南加大研究自駕車法律問題的法律系教授Bryant Walker Smith表示,未來發生事故的時候,駕駛人在大多數的狀況下比較不會被苛責,但自動駕駛系統會被檢討應該可以做得更完善。
(註:本件訴訟仍在繫屬中,尚未判決。)
落實完善數位資料管理機制, 有助於降低AI歧視及資料外洩風險 資訊工業策進會科技法律研究所 2023年07月07日 近年來,科技快速發展,AI(人工智慧)等技術日新月異,在公私部門的應用日益廣泛,而且根據美國資訊科技研究與顧問公司Gartner在2023年5月發布的調查指出,隨著由OpenAI開發的ChatGPT取得成功,更促使各領域對於AI應用的高度重視與投入[1],與此同時,AI歧視及資料外洩等問題,亦成為社會各界的重大關切議題。 壹、事件摘要 目前AI科技發展已牽動全球經濟發展,根據麥肯錫公司近期發布的《生成式人工智慧的經濟潛力:下一個生產力前沿(The next productivity frontier)》研究報告指出,預測生成式AI(Generative AI)有望每年為全球經濟增加2.6兆至4.4兆的經濟價值[2]。同時在美國資訊科技研究與顧問公司Gartner對於超過2500名高階主管的調查中,45%受訪者認為ChatGPT問世,增加其對於AI的投資。而且68%受訪者認為AI的好處大於風險,僅有5%受訪者認為風險大於好處[3]。然而有社會輿論認為AI的判斷依賴訓練資料,將可能複製人類偏見,造成AI歧視問題,而且若程式碼有漏洞或帳戶被盜用時,亦會造成資料外洩問題。 貳、重點說明 首先,關於AI歧視問題,以金融領域為例,近期歐盟委員會副主席Margrethe Vestager強調若AI用於可能影響他人生計的關鍵決策時,如決定是否能取得貸款,應確保申請人不受性別或膚色等歧視[4],同時亦有論者認為若用於訓練AI的歷史資料,本身存有偏見問題,則可能導致系統自動拒絕向邊緣化族群貸款,在無形之中加劇,甚至永久化對於特定種族或性別的歧視[5]。 其次,關於資料外洩問題,資安公司Group-IB指出因目前在預設情況下,ChatGPT將保存使用者查詢及AI回應的訊息紀錄,若帳戶被盜,則可能洩露機敏資訊。據統計在2022年6月至2023年5月間,在亞太地區有近41000個帳戶被盜,而在中東和非洲地區有近25000個帳戶被盜,甚至在歐洲地區也有近17000個帳戶被盜[6]。另外在2023年3月時,ChatGPT除了發生部分用戶能夠檢視他人聊天紀錄標題的問題外,甚至發生個人資料外洩問題,即用戶可能知悉他人的姓名、電子郵件,付款地址,信用卡到期日及號碼末四碼等資料[7]。 參、事件評析 對於AI歧視及資料外洩等問題,應透過落實完善數位資料治理與管理機制,以降低問題發生的風險。首先,在收集訓練資料時,為篩選適合作為模型或演算法基礎的資料,應建立資料評估或審查機制,減少或避免使用有潛在歧視問題的資料,以確保分析結果之精確性。 其次,不論對於訓練資料、分析所得資料或用戶個人資料等,均應落實嚴謹的資料保密措施,避免資料外洩,如必須對於資料進行標示或分類,並依照不同標示或分類,評估及採取適當程度的保密措施。同時應對於資料進行格式轉換,以無法直接開啟的檔案格式進行留存,縱使未來可能不慎發生資料外洩,任意第三人仍難以直接開啟或解析資料內容。甚至在傳送帳戶登入訊息時,亦應採取適當加密傳送機制,避免遭他人竊取,盜取帳戶或個人資料。 財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境完善,於2021年7月發布「重要數位資料治理暨管理制度規範(Essential Data Governance and Management System,簡稱EDGS)」,完整涵蓋數位資料的生成、保護與維護,以及存證資訊的取得、維護與驗證的流程化管理機制,故對於不同公私部門的AI相關資料,均可參考EDGS,建立系統性數位資料管理機制或強化既有機制。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Gartner, Gartner Poll Finds 45% of Executives Say ChatGPT Has Prompted an Increase in AI Investment (May 3, 2023), https://www.gartner.com/en/newsroom/press-releases/2023-05-03-gartner-poll-finds-45-percent-of-executives-say-chatgpt-has-prompted-an-increase-in-ai-investment (last visited June 30, 2023). [2]McKinsey, The economic potential of generative AI: The next productivity frontier (June 14, 2023), https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/the-economic-potential-of-generative-AI-the-next-productivity-frontier#introduction (last visited June 30, 2023). [3]Gartner, supra note 1. [4]Zoe Kleinman, Philippa Wain & Ashleigh Swan, Using AI for loans and mortgages is big risk, warns EU boss (June 14, 2023), https://www.bbc.com/news/technology-65881389 (last visited June 30, 2023). [5]Ryan Browne & MacKenzie Sigalos, A.I. has a discrimination problem. In banking, the consequences can be severe (June 23, 2023), https://www.cnbc.com/2023/06/23/ai-has-a-discrimination-problem-in-banking-that-can-be-devastating.html (last visited June 30, 2023). [6]Group-IB, Group-IB Discovers 100K+ Compromised ChatGPT Accounts on Dark Web Marketplaces; Asia-Pacific region tops the list (June 20, 2023), https://www.group-ib.com/media-center/press-releases/stealers-chatgpt-credentials/ (last visited June 30, 2023). [7]OpenAI, March 20 ChatGPT outage: Here’s what happened (Mar. 24, 2023),https://openai.com/blog/march-20-chatgpt-outage (last visited June 30, 2023).
歐盟、中國第三方支付立法簡介歐盟、中國第三方支付立法簡介 科技法律研究所 2013年4月1日 壹、事件摘要 自2010年起,國內便不斷湧現訂立第三方支付專法的呼聲,希望主管機關開放第三方支付相關業務,並立法給予第三方支付明確的法律地位,以提升產業發展環境,滿足產業發展需求。事實上,第三方支付服務在國外已有多國立法規範,如中國、歐盟、日本、美國、新加坡、香港、泰國、馬來西亞等等。有將第三方支付定位為資金傳輸業者,或強調是「非銀行」的金融服務業者,著重於第三方支付服務的支付清算功能。多數國家的第三方支付主管機關為金融監理單位或者是中央銀行,如日本金融廳,英國金融服務局(Financial Service Authority,FSA),新加坡金融管理局(Monetary Authority of Singapore,MAS),中國、馬來西亞、泰國央行。礙於篇幅,本文以下僅就歐洲以及中國規範做介紹。 貳、重點說明 一、歐盟 第三方支付服務為歐盟2007年「支付服務指令(Payment Service Directive,簡稱PSD) 」所規範的「支付服務(payment service)」,第三方支付服務業者為指令所稱之「支付機構(payment institution)」。依照PSD第5條規定,支付機構欲進行營業必須要依照會員國國內法向會員國相關主管機關提出核准申請。以英國而言,英國的主管機關是「金融服務局(Financial Service Authority)」。 以下說明重要規範。 (一)創辦資本(initial capital)最低金額: 依照第6條,支付機構具有最低創辦資本額限制,網路支付機構的最低資本額限制為五萬歐元。 (二)資本維持義務(Own funds): 依照第8條規定,支付機構必須要繼續持有一定數額的資金,至於應持有的金額,以下述三標準判定,如果下述三標準判定出的金額低於前述創辦資本的金額,則以創辦資本的金額為應持有資金的數目: 1.前一年度固定經常費用(overhead)的10%。 2.依照前年月平均處理金額的一定比率決定。 3.依照前一會計年度利息收入、利息支出、所收取的費用以及其他營運收入的總和,按比例提存之。如果實際無前一會計年度資料,可採取預估值。 (三)資金防護義務(safeguarding requirements): 依照第9條規定,支付機構對於自消費者所收取的代收轉付資金,必須要提供下述防護措施,原則上只要滿足其一即可。對於個別支付金額超過600歐元的消費者,指令認為會員國的主管機關可以要求對於這類大額消費者單獨提供防護措施。 1.專用存款帳戶: 消費者的資金不得與其他資金混同,支付機構一旦收取代收轉付資金即須將之存入獨立的帳戶,或者是投資於由會員國指定的低風險、流動性佳的資產。 2.破產隔離: 應依照會員國的國內法,基於消費者的利益做好破產隔離工作,排除支付機構的其他債權人對代收轉付資金主張權利。 3.保險: 為消費者的代收轉付資金投保,或者是提供其他來自保險公司或者是信用機構同等效力的擔保,在支付機構無法履行其財務責任時進行理賠。 (四)資料保存義務(Record-keeping): 依照第19條規定,會員國應要求支付機構妥善保存交易資料,保存義務期限至少五年。 (五)洗錢防制義務: 依照第5條規定,支付機構在申請核准時,需要提供公司治理以及內部控制規劃架構,其中第f款指出,支付機構須提出符合Directive 2005/60/EC以及Regulation (EC) No 1781/2006關於防制洗錢以及恐怖組織金融活動(terrorist financing)的內部控制機制。 (六)書面締約義務: 依照第41條規定,支付服務提供者必須要與支付服務使用者就第42條所規定的事項以紙本或者是其它可永久保存的媒體(durable medium)進行締約。第41條並要求支付服務提供者應在契約中使用淺顯易懂的文字,並以支付服務提供者所在國的官方語言或者是雙方同意使用的語言進行。第42條所規定的契約要項除了雙方的姓名之外,必要規定事項包含費用說明、支付服務使用所需的系統說明等等,除了必要規定事項,雙方也可以約定支付服務的支付金額限制,或者是依照第55條約定服務提供者得基於支付工具安全的理由限制支付工具的使用,例如發生可疑交易或詐欺事件而封鎖使用者,暫停其使用權限。 二、中國 中國人民銀行在2010年發布了「非金融機構支付服務管理辦法」,依照該法第2條規定,網路支付為該法所稱之非金融機構支付服務。非金融機構提供支付服務,應當向中國人民銀行申請取得「支付業務許可證」成為支付機構,未按規定申請者將被處以行政罰,嚴重者會被處以刑罰。支付業務許可證的有效期限五年,達五年期限者得於期滿前半年申請續展。 (一)最低資本額要求: 依照第9條規定,想要在中國全國境內提供支付服務者,最低註冊資本額為1億元人民幣;想要在中國單一省,或自治區、直轄市範圍內提供不跨境的支付服務者,最低註冊資本額應達3000萬元人民幣。最低註冊資本額為實繳貨幣資本,應於申請支付業務許可證時全數繳足。 (二)洗錢防制義務: 依照第8條規定,許可證申請人在申請時必須要提出符合相關法令要求的反洗錢措施。依照「非金融機構支付服務管理辦法實施細則」第4條規定,所謂的「反洗錢措施」,包括反洗錢內部控制、客戶身份識別、可疑交易報告、客戶身份資料和交易記錄保存等預防洗錢、恐怖融資等金融犯罪活動的措施。依照第44條規定,支付機構如果沒有履行反洗錢義務,中國人民銀行將可依據相關的反洗錢法規進行處罰,嚴重者得撤銷其支付業務許可證。 (三)服務使用者真實身分查核義務: 支付服務的使用者在註冊時必須要提供真實的身分資料。依照第31條規定,支付機構應該要對於客戶所提出的資料比對其有效的身分證件或者是其它的身分證明文件,並且進行登記。 (四)支付服務協議書面簽約義務: 支付機構應該與客戶就雙方之間的權利義務、糾紛處理原則以及違約責任等等事項簽訂協議。支付協議可以紙本也可以電子方式呈現,依照「非金融機構支付服務管理辦法實施細則」第32條規定,支付服務協議「包括符合法律法規要求、可供調取查用的紙質形式或數據電文形式的合同。」,與我國電子簽章法第四條關於以電子文件作為法律「書面」要件的規定相似。 (五)專用存款帳戶開立義務: 依照第26條規定,支付機構收受服務使用者的資金後,必須要將資金存入在商業銀行所開立的「備付金專用存款帳戶」。一個支付機構只能在一家商業銀行開立一個備付金專用存款帳戶。另外特別指出,依照第24條規定,客戶備付金非支付機構之自有財產,支付機構只能根據客戶的指示轉移備付金,不得自行挪作他用。 (六)資本維持義務: 依照第30條規定,支付機構的實際持有資本不能低於日處理金額的10%,日處理金額以90天內每日日中的平均餘額計之。 (七)資料保存義務: 依照第34條規定,支付機構應該要妥善保管客戶身分資料、支付業務資料以及會計檔案等資料。依照實施細則第39條,資料保存義務至少為五年。 (八)報表提交義務以及受查義務: 依照第20條,支付機構有義務向中國人民銀行提交支付業務統計報表以及財務會計報表。另外依照第35條,支付機構有義務配合中國人民銀行定期和不定期的現場檢查以及非現場檢查。 參、事件評析 綜整歐盟以及中國立法例,管制重點為確保業者具有償債能力和營運能力以及洗錢犯罪防制,要求經營需事先申請許可並另外輔以查核等機制。共通管制規範如下: (一)洗錢防制要求: 皆要求業者必須要具備內部洗錢防制措施,對外則需要與主管機關密切配合。 (二)償債能力備置要求: 要求服務提供者維持一定的資金水位,以避免服務提供者發生賠償責任時無償債能力。歐洲另輔以金融保證或保險,或是以其它方式進行風險隔離。 (三)專用存款帳戶: 歐盟與中國皆要求開立專用存款帳戶,避免與服務提供者的資金混同,明確帳務。 (四)代收資金運用限制: 業者收取之待轉資金限用於服務使用者指示之移轉,如准予用作投資,也僅限投資於低風險產品,且投資總額必須要依一般會計準則將資金水位維持在代收轉付資金的帳面價值之上。 (五)資料保存義務: 為了滿足洗錢防制追查的需求,要求業者對於交易資料進行保存的工作。無獨有偶,歐盟以及中國的保存義務年限都是至少五年。 (六)書面簽約義務: 為了保障消費者,要求業者以契約明確列出服務提供的要項以及雙方的權利義務關係。契約需為書面,以電子方式為之應符合各國以電子為書面的法律要件。
德國聯邦資訊技術,電信和新媒體協會針對AI及自動決策技術利用提出建議指南德國聯邦資訊技術,電信和新媒體協會於2018年2月6日在更安全的網路研討會中針對利用人工智慧及自動決策技術利用提出建議指南,旨在提升企業數位化與社會責任,並提升消費者權益保護。 德國司法及消費者保護部次長Gerd Billen於會議中指出,無論技術細節和具體應用如何發展,法律和消費者保護政策應確保人工智慧安全性,且不因此受歧視,以及盡可能確保技術利用透明度。而隨著人工智慧的發展,應設法解決使用人工智慧產生的法律問題。 例如,如何在製造商,供應商和消費者之間公平分配責任歸屬問題?在家庭,物流和手術室等領域已有越來越多具備自我學習的機器人被應用,相關權利是否會有所不同?如果機器出現不明原因故障,會發生什麼情況及如何處置?當機器透過在製造時尚未完全預定的環境感官認知做出具體決定時,該自動行為所生效力為何? 本份指南則提出六項建議: 促進企業內部及外部訂定相關準則 提升產品及服務透明度 使用相關技術應為全體利益著想 決策系統的可靠性仍取決資料的準確性。 重視並解決解決機器偏差問題 在特別需要負責的決策過程,應設計成由責任主體保留最終的決策權力,直到AI的控制品質已達到或高於所有參與者水平。