資通安全法律案例宣導彙編 第3輯

刊登期別
2004年06月編印
 

相關附件
※ 資通安全法律案例宣導彙編 第3輯, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=2371&no=67&tp=1 (最後瀏覽日:2026/04/22)
引註此篇文章
你可能還會想看
德國「新車輛及系統技術」補助計畫第二期

  「新車輛及系統技術」(Neue Fahrzeug- und Systemtechnologien)補助計畫係德國為確保汽車產業能夠在未來保持其技術領先地位所規劃的研究補助方案,該計畫從2015年6月起為期4年,聚焦車輛本體設計及車聯網技術解決方案;2018年11月,有感數位化變革所帶來的壓力,以及聯網自動駕駛顛覆未來交通面貌的潛力,德國聯邦經濟及能源部(BMWi)決定將前述計畫延長4年至2022年12月31日,並追加補助金額至每年6000萬歐元,促進聯網自動化駕駛及創新車輛領域的相關研發,具體鎖定的項目包含:(1)創新感測技術與傳動系統(2)高精度定位技術(3)迅速、安全、可靠的通信協作技術(4)創新資料融合及資料處理程序(5)人車互動技術(6)配套的測試程序與認證(7)電動車搭載自動駕駛功能的具體解決方案(8)透過輕量化提升能源效率技術(9)空氣動力學優化技術(10)創新動力推進技術。聯邦政府希望藉由第二輪的「新車輛及系統技術」補助計畫,協助歷來引以為傲的汽車工業克服資通訊技術革新、氣候保護趨嚴及能源效率要求所帶來的挑戰,全力避免此一德國重要經濟命脈淪為數位化浪潮下的犧牲者。

德國汽車製造商擁有德國境內大部分的自駕車專利

  根據德國專利商標局(Deutsches Patent- und Markenamt)2017年度報告,德國該年境內發明專利申請量達67,707件,僅較2016年下降0.3%(2016年專利申請量達歷年新高),主要領域在交通;而新型專利和設計專利申請量卻持續下降。歷年申請量如下表: (件數) 2017 2016 2015 2014 2013 2012 2011 發明 專利 67,706 67,907 66,898 65,963 63,177 61,361 59,612 新型 專利 13,299 14,030 14,271 14,741 15,470 15,531 16,038 設計 專利 44,297 57,057 58,017 60,837 56,944 55,250 53,197 資料來源:德國專利商標局   其中,德國汽車公司投資在電動汽車、輔助系統和自動駕駛等領域數十億元的成果在發明專利中被充分反映出來。根據德國專利商標局2017年度報告,該年自動駕駛專利申請數量有2,633件,較2016年增加14%,是2013年的兩倍。   在德國4,810件自動駕駛專利中,德國汽車公司就擁有超過2,006件,占42%,日本為28%,美國為11%。僅2017一年,德國汽車公司就取得325件自動駕駛專利,較日本公司259件、美國公司112件和法國公司的41件還多。其中絕大多數被Audi、Toyota和Volkswagen所擁有。   此外,德國境內電動汽車專利申請也增加10%,總數達到3,410件,超過三分之一是用於蓄電池和燃料電池,德國汽車公司高居專利申請量榜首,其中以Bosch和Schaeffler為最。   事實上,除了在德國境內,全球自動駕駛專利幾乎一半亦為德國汽車公司所擁有,截止至2017年底,占了48.8%,其中Bosch排名第一,共擁有1,101件專利。前十名專利擁有者如下圖: 單位:件 資料來源:德國經濟研究所(Institut der deutschen Wirtschaft) 「本文同步刊登於TIPS網站(https://www.tips.org.tw)」

美國OMB發布M-26-04備忘錄,確立聯邦採購之「無偏見原則」與透明度義務

美國白宮管理與預算辦公室(Office of Management and Budget,以下簡稱OMB)在2025年12月11日發布M-26-04備忘錄(以下簡稱本指引),目標是落實第14319號行政命令「防止聯邦政府中的覺醒AI」(Preventing Woke AI in the Federal Government)。本指引闡述「追求真相」(Truth-seeking)、「意識型態中立」(Ideological Neutrality)兩大「無偏見AI原則」(Unbiased AI Principles),並強制要求聯邦機構在採購大型語言模型(LLM)時,必須將此二原則納入合約條款。 為確保符合規定,本指引要求聯邦機構在進行採購時,應避免強制供應商揭露過於敏感的技術資料(如模型權重),而是採取以下兩層級的資訊揭露架構: 1. 基本透明度要求(Minimum Threshold for LLM Transparency) 各機構於招標階段,應要求供應商提供以下資訊: (1) 可接受的使用政策:界定產品適當與不適當用途的文件。 (2) 模型、系統和/或資料的摘要卡(Model, System, and/or Data Cards):包含訓練摘要、風險緩解措施及基準測試評分。 (3) 終端用戶資源與意見回饋機制:包含用戶教程及針對違反無偏見原則產出的回報管道。 2. 強化透明度門檻(Threshold for Enhanced LLM Transparency) 若機構擬將模型整合至其他軟體或服務中,則需獲取更深入的開發與運作資訊,例如: 1. 預訓練和後訓練(Pre-Training and Post-Training):如影響產出事實性(factuality)的活動、系統提示詞(System Prompts)、以及內容審查過濾器的具體運作。 2. 模型評估:針對政治議題的偏見測試結果與方法論。 3. 模型中嵌入的企業控制(Enterprise-Level Controls): 如可客製化的系統指令或來源引用功能。 4. 第三方對模型的修改:非原廠開發者所施加的額外控制層。 本指引對聯邦行政機構具有行政拘束力。機構必須於2026年3月11日前更新採購政策,並將上述要求納入新舊合約中。值得注意的是,本指引引入了「實質性要求」(Materiality Requirement),即若供應商拒絕針對違反無偏見原則的產出採取糾正措施,將構成合約違約之重要事由,機構得據此終止合約。 觀察美國OMB此次發布的內容,係透過將「意識形態中立」轉化為具體的採購合規要件,OMB利用聯邦政府龐大的購買力,在採購合約中確立供應商的「透明度義務」,OMB指引不僅建立了明確的法遵標竿,更可能發揮示範效應,將政府端的無偏見規範逐步推廣至私營部門,轉化為產業的最佳實踐標準。

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).

TOP