2024年7月1日,美國實務界律師撰文針對使用生成式AI(Generative AI)工具可能導致的營業秘密外洩風險提出營業秘密保護管理的強化建議,其表示有研究指出約56%的工作者已經嘗試將生成式AI工具用於工作中,而員工輸入該工具的資訊中約有11%可能包含公司具有競爭力的敏感性資訊或客戶的敏感資訊,以Chat GPT為例,原始碼(Source Code)可能是第二多被提供給Chat GPT的機密資訊類型。系爭機密資訊可能被生成式AI工具提供者(AI Provider)用於訓練生成式AI模型等,進而導致洩漏;或生成式AI工具提供者可能會監控和存取公司輸入之資訊以檢查是否有不當使用,此時營業秘密可能在人工審查階段洩漏。
該篇文章提到,以法律要件而論,生成式AI有產生營業秘密之可能,因為營業秘密與著作權和專利不同之處在於「發明者不必是人類」;因此,由生成式 AI 工具協助產出的內容可能被視為營業秘密,其範圍可能包括:公司的內部 AI 平台、基礎的訓練算法和模型、輸入參數和輸出結果等。惟基於目前實務上尚未有相關案例,故生成式AI輸出結果在法律上受保護的範圍與條件仍需待後續的判例來加以明確。
實務專家提出,即使訴訟上尚未明確,企業仍可透過事前的管理措施來保護或避免營業秘密洩露,以下綜整成「人員」與「技術」兩個面向分述之:
一、人員面:
1.員工(教育訓練、合約)
在員工管理上,建議透過教育訓練使員工了解到營業秘密之定義及保護措施,並告知向生成式AI工具提供敏感資訊的風險與潛在後果;培訓後,亦可進一步限制能夠使用AI工具的員工範圍,如只有經過培訓及授權之員工才能夠存取這些AI工具。
在合約方面,建議公司可與員工簽訂或更新保密契約,納入使用生成式AI的指導方針,例如:明確規定禁止向生成式AI工具輸入公司營業秘密、客戶數據、財務信息、未公開的產品計劃等機密資訊;亦可增加相關限制或聲明條款,如「在生成式AI工具中揭露之資訊只屬於公司」、「限制公司資訊僅能存儲於公司的私有雲上」等條款。
2.生成式AI工具提供者(合約)
針對外部管理時,公司亦可透過「終端使用者授權合約(End User License Agreement,簡稱EULA)」來限制生成式AI工具提供者對於公司在該工具上「輸入內容」之使用,如輸入內容不可以被用於訓練基礎模型,或者該訓練之模型只能用在資訊提供的公司。
二、技術方面:
建議公司購買或開發自有的生成式AI工具,並將一切使用行為限縮在公司的私有雲或私有伺服器中;或透過加密、防火牆或多種編碼指令(Programmed)來避免揭露特定類型的資訊或限制上傳文件的大小或類型,防止機密資訊被誤輸入,其舉出三星公司(Samsung)公司為例,三星已限制使用Chat GPT的用戶的上傳容量為1024位元組(Bytes),以防止輸入大型文件。
綜上所述,實務界對於使用生成式AI工具可能的營業秘密風險,相對於尚未可知的訴訟攻防,律師更推薦企業透過訴訟前積極的管理來避免風險。本文建議企業可將前述建議之作法融入資策會科法所創意智財中心於2023年發布「營業秘密保護管理規範」中,換言之,企業可透過「營業秘密保護管理規範」十個單元(包括從最高管理階層角色開始的整體規劃建議、營業秘密範圍確定、營業秘密使用行為管理、員工管理、網路與環境設備管理、外部活動管理,甚至是後端的爭議處理機制,如何監督與改善等)的PDCA管理循環建立基礎的營業秘密管理,更可以透過上述建議的做法(對單元5.使用管理、單元6.1保密約定、單元6.4教育訓練、單元7.網路與環境設備管理等單元)加強針對生成式AI工具之管理。
本文同步刊登於TIPS網站(https://www.tips.org.tw)
英國數位文化媒體暨體育部(Department for Digital, Culture, Media and Sport, DCMS)2020年9月1日發布「數位身分:政府諮詢回應」(Digital Identity: Call for Evidence Response)文件,以回應過去英國政府曾於2019年7月向各界蒐集如何為成長中的數位經濟社會建立數位身分系統之意見。依據諮詢意見之成果,英國政府計畫調修現行法規,使相關身分識別流程以最大化容許數位身分之使用,並發展有關數位身分之消費者保護立法;立法中將特別規範個人之權利、如何賠償可能產生的侵害,以及設定監督者等相關內容。數位身分策略委員會(Digital Identity Strategy Board)並提出六項原則,以加強英國之數位身分布建與政策: 隱私:當個人資料被使用時,應確保具備相關措施以保障其保密性與隱私; 透明性:當個人身分資訊於使用數位身分產品而被利用時,必須確保使用者可了解其個資被誰、因何原因,以及在何時被利用; 包容性:當人們希望或需要數位身分時即可取得。例如不備有護照或駕照等紙本文件時,對於其取得數位身分不應產生障礙; 互通性(interoperability):應設定英國之技術與運作標準,使國際與國內之使用上可互通; 比例性:使用者需求與其他因素(如隱私與安全)之考量應可平衡,使數位身分之使用可被信賴; 良好監理:數位身分標準將與政府政策與法令連結,未來之相關規範將更加明確、一致並可配合政府對於數位管制之整體策略。
FCC正式將新版網路中立命令提交予美國聯邦政府公報刊登美國聯邦通訊委員會(Federal Communications Commission, FCC)於2015年2月26日公布了新版的網路中立命令後,由於新版方案揭櫫了禁止提供快車道(fast lane)予特定服務業者的重要原則,因此被外界預測將遭到各大網路服務供應商的反彈,一如外界所預期的,美國電信協會(United States Telecom Association, USTelecom)於2015年3月23日在美國華盛頓特區聯邦巡迴上訴法院對FCC的新版法案提起訴訟,USTelecom認為,新版的網路中立法案中,賦予監理機構──亦即FCC太多裁量權限,將使得FCC的權力難以控制,在此同時,德州的一家網路服務業者Alamo (Alamo Broadband Inc.)也基於相類似的理由,於美國紐奧良聯邦巡迴上訴法院對FCC提起訴訟。而實際上,在前開電信業者向法院提起訴訟時,FCC的新版網路中立方案甚至尚未刊登於美國聯邦政府公報(Federal Register),自然也無從討論法律生效時點的問題,這個訴訟程序的瑕疵也立即引起各界的注意,論者咸認這些訴訟都將會遭到法院的駁回,但USTelecom宣稱他們的訴訟標的是生效後的法案。 對於各大電信業者、網路服務供應商的大動作,FCC似乎已經準備好面對這些法律論戰,2015年4月1日,FCC正式將新版的網路中立方案提交予美國聯邦政府公報刊登,依據相關規定,此項行政命令將會在刊登2個月後正式產生法律效力,這也意味著在命令生效後,前開訴訟標的之爭議將不復存在,此後再行提起的訴訟,勢必也將正式地透過司法途徑解決。
巴西推動開源碼軟體取代微軟視窗目前,巴西正在展開一場外交攻勢,鼓勵人們使用 " 開放源碼 " 的軟體。替代視窗的 " 開放源碼 " 價格低廉,在有些情況下甚至免費。巴西希望通過推動這些軟件的使用消除分隔發達國家和發展中國家的所謂 " 數碼鴻溝 " 。 改用 ' 開放源碼 ' 軟件的首要原因是出於經濟考慮。目前巴西政府為每一個使用微軟視窗的工作站支付五百美元。相反,大多數 ' 開放源碼 ' 軟件是免費的。盧拉總統正在考慮下達政令,要求所有政府部門都使用 " 開放源碼 " 軟件。這是亞洲許多國家以及德國的公司和政府已經採取的步驟。但不同的是,盧拉總統把這看成是一個發展問題。 聯合國定於十一月份舉行信息技術高峰會議的時候,巴西正在把這場針對微軟的行動國際化。巴西外交官試圖說服高峰會議發表最後宣言,強調 " 開放源碼 " 軟體的重要性,特別是對發展中國家的重要性。
強化政府橫向協調,提升AI治理—澳洲擬於2026年初設立AI安全研究所澳洲政府於2025年11月25日宣布,將於2026年初設立AI安全研究所(AI Safety Institute)。澳洲AI安全研究所的設立目標,為提供相關的專業能力,以監管、測試與共享AI在技術、風險、危害層面的資訊。經由辨識潛在的風險,提供澳洲政府與人民必要的保護。AI安全研究所將以既有之法律與監管框架為基礎,因應AI風險,協助政府各部門調整相關規範。其主要業務如下: .協助政府掌握AI技術的發展趨勢,動態應對新興的風險與危害; .強化政府對先進AI技術發展及潛在影響的理解; .共享AI資訊與作為協調政府各部門的樞紐; .經由國家AI中心(National AI Centre,NAIC)等管道,提供事業、政府、公眾與AI相關的機會、風險和安全的指導; .協助澳洲履行國際AI安全協議的承諾。 AI安全研究所並為2025年12月2日,工業、科學與資源部(Department of Industry, Science and Resources)發布的國家AI計畫(National AI Plan,下稱澳洲AI計畫)中,保障應用AI安全性的關鍵項目。澳洲AI計畫指出,AI安全研究所將關注AI的上游風險(upstream AI risks),與下游危害(downstream AI harms)。所稱之上游風險,係指AI模型和系統的建構、訓練方式,與AI本身的能力,可能產生的疑慮。下游危害,則係指使用AI系統時,可能的實質影響。 AI安全研究所將支援與國際、政府各部門間之合作;並共享新興的AI技術能力,以及對AI上游風險的見解,發布安全研究成果,提供產業與學術界參考。AI安全研究所監測、分析與共享資訊,提出政府各部門,對AI下游危害,可採取的一致性應對建議。 綜上所述,澳洲政府提出國家AI計畫,於既有的法制體系,滾動調整相關規範,以應對AI風險。並成立AI安全研究所,追蹤國際AI發展脈動,及時提供澳洲政府應對建議,協調各部門採取一致性的行動。澳洲政府對新興AI技術,所採取策略的具體成效,仍有待觀察。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)