英國Ofcom在2015年7月16日公布數位通訊審查第一階段之報告,指出英國未來可能面臨的挑戰問題,希望使消費者以及企業在未來的十年甚至以後能享有高品質的數位通訊服務。Ofcome先前在2015年3月提出預計進行數位通訊政策審查,檢視競爭、投資、研發以及所有數位通訊服務的使用情形,包括寬頻、行動電話、以及捆綁式服務等。 Ofcom針對四個主要領域部分提出建議: 1.市場的投資與研發,有助於服務普及。 Ofcom預估10Mbit/s為必要的寬頻速度,可以提供每天熱門的線上服務使用,例如影視音隨選服務。然而,目前英國僅有8%家戶可以取得此等速度服務。因此,Ofcom檢視法規如何使未來超高速寬頻的商業應用發展更完備。同時,Ofcom預估將來4G行動寬頻將達98%,但未來消費者與企業的期望也將隨之增高,因此仍有待於再加強網路投資。 2.競爭,藉此能提供有品質的服務和良好的價格。 在此次的檢討中,Ofcom將檢視以下議題: (1) 保留目前運作模式:電信網絡部門Openreach有別於BT,在功能上不同,利用一般性市場審查來說明任何與競爭相關之問題。 (2) 將目前的運作模式延伸: 透過對於BT的新規範,例如利用較強的誘因來控制批發價格,藉此改善服務品質,或甚至當BT出現問題時,以處罰方式進行。 (3) 將Openreach從BT中劃分,藉此可以對末端使用者有良好的競爭利益。 (4) 去管制並且促進網路競爭。 3.賦予消費者以及業者有選擇的權利,尤其是可以自由選擇或轉換這些服務提供業者。 對於Ofcom而言,所要考量的重點在於消費者在選擇服務時,是否以擁有充分的資訊可以參考。同時要思考消費者在轉換服務業者時,其是否具有障礙。 4.持續追蹤法規議題,為使市場能構良好運作,應該去管制。 例如OTT網路通訊服務,對於行動業者而言將需要較少的管制,或是是否將現有的規範直接延伸規定。 未來,在此項檢討之後,ofcom將再進行第二階段的檢視,預計於2015年10月8日進行回應討論,以促使整體英國具有良好的通訊服務環境。
用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).
澳洲發佈《直接行動計畫》以因應氣候變遷 美國白宮於2019年5月發布總統令,提升聯邦及全國之資安人力美國白宮(the White House)於2019年5月2日發布第13870號總統令(Executive Order),旨在說明美國的資安人力政策規劃。 於聯邦層級的資安人力提升(Strengthening the Federal Cybersecurity Workforce)上,由國土安全部(Department of Homeland Security, DHS)部長、管理預算局(Office of Management and Budget, OMB)局長及人事管理局(Office of Personnel Management, OPM)局長共同推動網路安全專職人員輪調工作計畫(cybersecurity rotational assignment program),計畫目標包含:輪調國土安全部與其他機關IT及資安人員、提供培訓課程提升計畫參與者之技能、建立同儕師徒制(peer mentoring)加強人力整合,以及將NIST於2017年提出之國家網路安全教育倡議(National Initiative for Cybersecurity Education, NICE)和網路安全人力框架(Cybersecurity Workforce Framework, NICE Framework,以下合稱NICE框架),作為參與者的最低資安技能要求。同時上述部長及局長,須向總統提交報告說明達成上述目標之執行方案。 於國家層級的資安人力提升(Strengthening the Nation’s Cybersecurity Workforce)上,則表示商務部部長(Secretary of Commerce)、勞工部部長(Secretary of Labor)、教育部部長(Secretary of Education)、國土安全部部長與其他相關機關首長,應鼓勵州、領土、地方、部落、學術界、非營利與私部門實體於合法之情況下,自願於教育、訓練和人力發展中納入NICE框架。此外,將每年頒發總統網路安全教育獎(Presidential Cybersecurity Education Award),給予致力於傳授資安知識之中小學教育工作者。 綜上所述,美國將透過制度、教育與獎勵等方式培育資安人才,提升國內資安人才的質與量,以因應越來越險峻的資安威脅與風險。