繼2012年最高法院認為警方在無搜索令的情況下,以GPS追蹤裝置查探犯罪嫌疑人之位置資訊違反憲法第四修正案。最高法院於2017年6月5日,認為警方未持搜索票,而向電信公司取得犯罪嫌疑人過去127天共計12,898筆之行動通信基地台位置資訊(cell-site data)之行為,違反憲法第四修正案。
由於個人利用行動通訊服務時,必須透過基地台進行通訊,因而可藉由該基地台位置,得知每個人所在之區域位置,而此一通訊紀錄過去被電信公司視為一般的商業資訊,因為得知通訊基地台的位置資訊,無法直接得知個人所在的精準位置,僅能得知其概略所在地區。
因此,犯罪調查機關基於1979年 Smith v. Maryland案所建立之原則,即只要該個人資訊屬於企業的一般商業紀錄(normal business record),警方可以在無搜索令的情況下,向企業取得個人資訊, 此一原則又稱為第三方法則(third-party doctrine)。過去在地方法院或上訴法院的審理中,法院對此多持正面見解,認為只要該資料與進行中之犯罪偵查活動有實質關聯(relevant and material to an ongoing criminal investigation),警方即可向業者取得。大法官Sonia Sotomayor早在前述2012年GPS追蹤裝置案的協同意見書中表示,第三方法則不應適用在數位時代,例如用戶撥電話給客服人員,或以電子郵件回覆網路購物的賣方等,無數的日常活動已經大量的向第三方揭露許多資訊。
在數位時代,大量的個人資訊以電磁紀錄的形式掌握在第三方手中,本案最高法院的見解,將會對美國的犯罪調查機關在未持搜索令的情況下,更慎重的判斷向業者取得個人資訊做為犯罪偵查使用時,是否與憲法第四修正案有所違背。
從美國政府責任署建議國防部應改善其處理智慧財產的方式初探美國國防部之智財管理 資訊工業策進會科技法律研究所 2022年2月15日 根據美國政府責任署(U.S. Government Accountability Office,下稱GOA)於去(2021)年12月發布的報告指出,美國國防部(U.S. Department of Defense,下稱DOD)對智慧財產的管理能力不足,可能降低任務準備程度並導致維運軍武的成本飆升[1]。本文將簡介GOA報告的發現,聚焦於DOD的智財管理情況,藉此一窺美國國防部的智財管理模式。 壹、事件摘要 美國國會於2018年通過《國防授權法案》(National Defense Authorization Act,簡稱NDAA),裁示DOD建立智財取得及授權政策,DOD據此訂定其智財指令、規劃智財權責單位、人員及相關培訓機制,嗣後國會於2021年委請GAO檢視DOD之智財指令及其執行情況。 貳、重點說明 一、DOD的智財指令 DOD依據以下智財相關法規,設定其智財指令,如:使小型企業、大學和其他非營利組織可保留其發明之專利權的《拜杜法》(Bayh-Dole Act)[2]、授予無論規模大小所有聯邦締約方全部或部分由聯邦資金所獲得的專利權之12,591號行政命令[3],以及要求DOD應訂定相關規範以解決和締約方間技術資料的相關權利之《國防採購改革法案》(Defense Procurement Reform Act)[4]等,並強調六項核心原則[5]: 1.將智慧財產權規劃整合到採購策略中,以考量對競爭力和可負擔性的長期影響。 2.確保採購專業人員具備履行公務所需的相關智財知識,以支援智財採購規劃期間內進行關鍵的跨職能協調。 3.對智財可交付成果和相關授權進行特別協商,相較標準授權能更有效地平衡DOD和產業界間的利益。 4.就預期智財和維運目標與產業界進行明確有效的溝通。 5.尊重和保護私部門和政府資助的智慧財產權。 6.政府必須確保締約方所交付之智財成果和有相應的授權。 二、GAO檢視DOD之智財指令執行結果 應國會要求,GAO對DOD的智財指令進行通盤檢視,並對智財權責單位、人員及負責培訓之機構展開調查,訪談相關人員指令的實際執行情況,其檢視結果如下: (一)DOD的智財指令不足以促進其取得智財的製程細節或處理資料權利之能力 DOD智財指令雖整合取得、授權智財的相關法規和指引等要求,並強調其核心原則,然該指令和DOD其它相關的內部指令仍未有更明確的內容可解決取得細部製程或處理資料權利的問題。DOD通常會為其新銳軍武器系統-包含電腦軟體、技術資料、用戶手冊等取得或註冊智財權,而DOD智財指令所指的技術資料,是包括任何科學或技術性質的記錄資訊,如:產品設計或維護資料和電腦軟體檔案(含:執行程式碼、開源碼、程式碼清單、設計細節、流程、流程圖等);但常未同步取得用於運行和維護武器系統的智財,如:細部製程或技術資料等[6],倘若未及早取得或獲得相關授權,可能影響軍武系統的操作和維護,從而影響武器的競爭力,並增加管理成本[7]。 實際上,GAO已接獲因技術資料取得問題而對任務有不良影響的報告:2021年7月F-35計劃因維修供應商取得的技術資料不足以滿足維護需求,使關鍵的引擎維修時間比預期的更久;2020年3月部分海軍艦艇計劃的維護作業也因缺乏技術資料出問題,而上述情況若在計畫前期就確認包含技術資料和細部製程等所需智財,並在採購過程中及早規劃取得,可因此節省後續衍生的數十億美元維護成本[8]。 (二)DOD尚未為智財人員訂定完善的策略、人員配置規劃和投注足夠的資源,以充分履行智財指令所規定的廣泛職責 根據GOA的調查與訪談相關人員,智財人員在以下情況都面臨不確定性: 1.資金和人員配置 DOD目前計劃在2023財會年度前,為智財主任及其在國防部長辦公室(Office of the Secretary of Defense,下稱OSD)的團隊提供五個職位的資金,但其中四個為臨時職位,這可能在招聘人才的過程中造成反效果,不利於未來的人員配置。 2.連結其他計劃專家支援不足之處 OSD的智財人員希望DOD中其他計畫的智財專家庫能提供支援,協助訂定智財策略並與承包商進行談判等事宜,但DOD尚未針對 OSD智財團隊將如何和其他專家合作提出具體作法。 3.專業知識 DOD的智財指令指出智財人員應該具備:採購、擬定契約、工程學、法律、後勤、財務分析以及估值等領域的專業知識,但受訪談的人員表示,該部門目前在智財權估值和財務分析這兩個關鍵領域仍有不足,仍須進行補強[9]。 (三)智財培訓涵蓋多項活動但未安排優先順序,且未具體確定哪些人員應該接受培訓 DOD的智財培訓由其設立的美國國防武獲大學(Defense Acquisition University,又譯為國防軍需大學,下稱 DAU)執行,該大學專為國防相關之政府人員、承包商提供採購、技術和後勤等專業培訓[10]。為改善智財培訓,DAU展開為5年期的智財策略計畫,計有60多項活動待執行,但該策略計劃缺乏重點,沒有排出活動的優先順序,也未具體提出DOD的哪些智財人員應該接受培訓[11]。 (四)DOD須致力發展追蹤已取得/授權智財之後續使用情況的能力 DOD目前的智財指令指示相關政府單位須管理智財相關的契約及智財文件,以避免在採購智財及其相關授權時重複採購,或隨時間流逝而喪失智財權,然而根據訪談結果,相關人員表示DOD採購極大量的智財或相關授權,但不具備追蹤各個智財獲授權使用情形的能力[12]。 三、GAO對DOD的建議 GAO彙整其檢視DOD智財指令執行情況的結果後,對DOD提出下列四個建議[13],建議內容不外乎是指定與智財管理相關的重要項目須指定負責人,且該負責人須為對應智財相關單位的較高管理階層,確保待改善項目有監督與執行者。 (一)完善智財指南 採購及維護次長(The Under Secretary of Defense for Acquisition and Sustainment)應確保DOD智財指南已闡明DOD人員將如何取得細部製程或技術資料。 (二)確保跨部門合作與資源連結 國防部長(The Secretary of Defense)應確保部長辦公室和各部門所需的合作、人員配置和資源,以連結各計畫智財相關專家、人員。 (三)確認智財活動優先順序 採購助理部長(Assistant Secretary of Defense for Acquisition)應確保智財主任(Director of the IP Cadre)與DAU主席合作,為DAU在2023年至2025年間主責與智財相關活動確定優先順序。 (四)確保智財培訓效益 採購助理部長(Assistant Secretary of Defense for Acquisition)應確保智財主任訂定補充指引,以協助部門負責人和採購職業管理主任(Director of Acquisition Career Management,DACM)確定國防部人員在關鍵專業領域接受之智財培訓和取得的證書能使其有最大的獲益。 參、事件評析 綜觀GAO的檢視結果,雖然DOD的智財管理仍有改善空間,但以足見美國聯邦政府對其智財管理之重視程度,不僅指示部會自行管理智財,更透過部會外的公正單位,從規範到組織實際執行情況進行通盤檢視;而部會內部對於智財管理的程度,已經從訂定和整合智財相關規範,進一步到落實在日常任務中,不只重視部會所需技術本身的智財取得或保護,更欲推進到策略計劃前期,將維護軍武相關的細部製程和技術資料等相關內容及權利也納入採購範圍,甚至為此盤點智財所需的專業能力、規劃培訓專門人員,以促進智財管理的量能,其對智財管理深化及重視的程度值得我國借鏡。 [1] GAO, Defense Acquisitions: DOD Should Take Additional Actions to Improve How It Approaches Intellectual Property, (Nov. 30, 2021), available at https://www.gao.gov/products/gao-22-104752 (last visited Feb. 7, 2022) [2] The Patent and Trademark Law Amendments Act of 1980 (Bayh-Dole Act), 35 U.S.C.§§ 200–211, 301–307. [3] President’s Memorandum to the Heads of the Executive Departments and Agencies,Government Patent Policy (Feb. 18, 1983); Exec. Order No. 12,591, § 1(b)(4), 52 Fed. Reg. 13,414 (Apr. 10, 1987) [4] Defense Procurement Reform Act, 1984, Pub. L. No. 98-525, § 1201. [5] Supra note 1, 17-18. [6] Id., 7, footnote 21. [7] Id., 1. [8] Id., 1. [9] Id., 24-28. [10] DAU, About DAU, at https://www.dau.edu/about (last visited Feb., 7, 2022) [11] Id., 29-30. [12] Id., 32-33. [13] Id., 33-34.
英國NCSC針對使用高風險供應商之電信網路提出風險管理建議英國於2020年1月31日正式脫歐,同時積極爭取與重要貿易夥伴美國簽訂自由貿易協定(Free Trade Agreement, FTA)。然而,美國認定中國大陸華為的5G設備存在資安風險,可能被用於間諜活動進而威脅國家安全,故主張美英貿易合作與情報共享的前提,必須建立在英國排除使用華為5G網路基礎建設之上,對此英國嘗試透過政策研擬,在5G經濟發展與國家安全間求取平衡。英國國家網路安全中心(National Cyber Security Centre, NCSC)於2020年1月28日,即針對使用「高風險供應商(High risk vendors簡稱HRV)」之電信網路,提出風險管理建議,說明如何因應HRV帶來的網路安全風險及挑戰(須注意高風險供應商HRV不一定是關鍵供應商Critical Vendor,必須透過關鍵與否及風險高低兩個變動因素加以細部區分)。目前英國5G及光纖到戶(Fiber To The Home, FTTH)計畫推動處於關鍵階段,NCSC向電信營運商提出有關使用HRV設備的非拘束性技術建議,將有助於保護營運商免於外部攻擊,並降低英國電信網路的國家安全風險。 NCSC在報告中,針對何謂高風險供應商,及如何管理這些供應商帶來的特定安全風險,提出詳盡判斷標準包括:供應商在英國及其他地區網路中的戰略地位及規模、對網路安全控管品質及透明度、過去商業行為及慣例、向英國營運商供應技術的穩定性及彈性等。另外供應商有無接受外國政府補貼及營業地點是考量重點:包括該廠商所屬國家政府機構對其施加影響之程度、是否具備攻擊英國網路能力、業務營運的重要組成部分是否受到本國法律監管,進而與英國法律相抵觸甚至進行外部指導等。 又為減少由HRV引起的網路安全風險,NCSC對於HRV控管提出具體建議。包括應限制在5G或FTTP網路核心功能中使用HRV產品及服務,並將高風險廠商供應上限設定為35%,有效進行網路安全風險管理,平衡安全性風險和市場供應多樣化彈性需求。另外,其他具備敏感性的網路營運模式,例如大量個資蒐集、語音系統、記錄備份系統、寬頻遠端接入系統(BNG / BRAS)等,必須根據具體情況,對HRV進行限制;且不得在與政府營運或重要國家基礎設施,及任何與安全系統直接相關的敏感網路中使用HRV設備。目前,中國大陸華為是英國NCSC唯一認定的HRV廠商,華為被禁止參與英國5G網路建設的核心部分且受有市占率35%的供應限制;華為亦需遵守NCSC要求,訂定風險緩解策略,確保產品及服務不致威脅英國網路即國家安全。
何謂「中國製造2025」?中國大陸國務院李克強總理於2015年國務院常務會議研提「中國製造2025」政策,希望提升中國大陸製造業的發展。該政策為因應智慧聯網(Internet of Thing, IoT)的發展趨勢,以資訊化與工業化整合為主,重新發展新一代資訊技術、數控機床和機器人、航空航天裝備、海洋工程裝備及高技術船舶、先進軌道交通設備、節能與新能源汽車、電力裝備、新材料、生物醫藥及高性能醫療器材、農業機械裝備等10大領域,以強化工業基礎能力,提升技術水平和產品品質,進而推動智慧製造、綠色製造。而有別於德國所提出的工業4.0計畫,中國大陸所提出的是理念,係以開源開放、共創共享的智慧聯網推動創新思維。
用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).