2024年7月1日,美國實務界律師撰文針對使用生成式AI(Generative AI)工具可能導致的營業秘密外洩風險提出營業秘密保護管理的強化建議,其表示有研究指出約56%的工作者已經嘗試將生成式AI工具用於工作中,而員工輸入該工具的資訊中約有11%可能包含公司具有競爭力的敏感性資訊或客戶的敏感資訊,以Chat GPT為例,原始碼(Source Code)可能是第二多被提供給Chat GPT的機密資訊類型。系爭機密資訊可能被生成式AI工具提供者(AI Provider)用於訓練生成式AI模型等,進而導致洩漏;或生成式AI工具提供者可能會監控和存取公司輸入之資訊以檢查是否有不當使用,此時營業秘密可能在人工審查階段洩漏。 該篇文章提到,以法律要件而論,生成式AI有產生營業秘密之可能,因為營業秘密與著作權和專利不同之處在於「發明者不必是人類」;因此,由生成式 AI 工具協助產出的內容可能被視為營業秘密,其範圍可能包括:公司的內部 AI 平台、基礎的訓練算法和模型、輸入參數和輸出結果等。惟基於目前實務上尚未有相關案例,故生成式AI輸出結果在法律上受保護的範圍與條件仍需待後續的判例來加以明確。 實務專家提出,即使訴訟上尚未明確,企業仍可透過事前的管理措施來保護或避免營業秘密洩露,以下綜整成「人員」與「技術」兩個面向分述之: 一、人員面: 1.員工(教育訓練、合約) 在員工管理上,建議透過教育訓練使員工了解到營業秘密之定義及保護措施,並告知向生成式AI工具提供敏感資訊的風險與潛在後果;培訓後,亦可進一步限制能夠使用AI工具的員工範圍,如只有經過培訓及授權之員工才能夠存取這些AI工具。 在合約方面,建議公司可與員工簽訂或更新保密契約,納入使用生成式AI的指導方針,例如:明確規定禁止向生成式AI工具輸入公司營業秘密、客戶數據、財務信息、未公開的產品計劃等機密資訊;亦可增加相關限制或聲明條款,如「在生成式AI工具中揭露之資訊只屬於公司」、「限制公司資訊僅能存儲於公司的私有雲上」等條款。 2.生成式AI工具提供者(合約) 針對外部管理時,公司亦可透過「終端使用者授權合約(End User License Agreement,簡稱EULA)」來限制生成式AI工具提供者對於公司在該工具上「輸入內容」之使用,如輸入內容不可以被用於訓練基礎模型,或者該訓練之模型只能用在資訊提供的公司。 二、技術方面: 建議公司購買或開發自有的生成式AI工具,並將一切使用行為限縮在公司的私有雲或私有伺服器中;或透過加密、防火牆或多種編碼指令(Programmed)來避免揭露特定類型的資訊或限制上傳文件的大小或類型,防止機密資訊被誤輸入,其舉出三星公司(Samsung)公司為例,三星已限制使用Chat GPT的用戶的上傳容量為1024位元組(Bytes),以防止輸入大型文件。 綜上所述,實務界對於使用生成式AI工具可能的營業秘密風險,相對於尚未可知的訴訟攻防,律師更推薦企業透過訴訟前積極的管理來避免風險。本文建議企業可將前述建議之作法融入資策會科法所創意智財中心於2023年發布「營業秘密保護管理規範」中,換言之,企業可透過「營業秘密保護管理規範」十個單元(包括從最高管理階層角色開始的整體規劃建議、營業秘密範圍確定、營業秘密使用行為管理、員工管理、網路與環境設備管理、外部活動管理,甚至是後端的爭議處理機制,如何監督與改善等)的PDCA管理循環建立基礎的營業秘密管理,更可以透過上述建議的做法(對單元5.使用管理、單元6.1保密約定、單元6.4教育訓練、單元7.網路與環境設備管理等單元)加強針對生成式AI工具之管理。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
新加坡以親商政策及稅務優惠等措施提升新創生態系競爭力位居亞洲第一全球創新研究平台StartupBlink 於2025年5月20日發布《2025全球新創生態系指數》(Global Startup Ecosystem Index 2025),分析與評比全球118個國家及1,473座城市新創生態系之數量、品質與商業環境。其中新加坡自2021年起全球排名不斷攀升,於2022年起佔據亞洲第1之寶座,截至2025年更躍升全球第4,僅位居美國、英國及以色列之後。 新加坡新創生態系之競爭力優勢如下: 1、穩定金融環境:企業與銀行具備充足流動資本與健康償債能力。 2、親商環境制度:新加坡政府以全球創業者計畫(Global Founder Programme, GFP),提供便利簽證、產業人脈引介等多方面支持,吸引經驗豐富之創辦人至新加坡創業。 3、優惠稅務措施:因應全球最低稅負制度,增訂「可退還投資抵減」(Refundable Investment Credit, RIC),針對促進新加坡經濟或提升新興產業成長為重大投資之公司,可扣抵企業應納之稅負。 4、推動產學合作:新加坡學術界除了積極培育高素質人才進行研發外,亦提供專業知識諮詢、產業交流機會,及海外業務拓展之協助,積極推動產學合作,使校園成為創業之溫床。 2025年全球新創生態系面臨兩大衝擊,即AI技術的崛起與迅速更跌,與複雜多變的地緣政治,促使政府須在詭譎的全球局勢中,因應情勢調整國家發展策略,推動新創持續成長。而新加坡政府及學術研究機關均致力推動新創政策,加上充足的基礎設施,吸引大量國際人才與投資,進而促使該國新創生態系之蓬勃發展。
蕃茄醬瓶身相似設計引發商標侵權之爭今年(2014)3月6日美國號稱蕃茄醬巨人的H.J. Heinz Co. (以下簡稱Heinz)於美國德州聯邦法院向一家德州公司Figueroa Brothers Inc. (以下簡稱Figueroa)提起商標侵權訴訟,主張Figueroa製造販售的蕃茄醬採用與其設計幾近相同的瓶身(ketchup bottle),侵害其極具識別性、代表性的商業表徵(trade dress)。 Heinz目前針對該玻璃瓶設計已註冊取得3個聯邦商標,其除了主張聯邦商標法保護外,亦基於普通法(common law)提起商標侵權主張。然而,Heinz表示,在提起訴訟前,已數次嘗試與Figueroa私下解決此爭議,但未果,所以最後才會訴諸法律途徑,提起訴訟。 Heinz於訴狀中表示從1890年代開始,便開始行銷販售有名的蕃茄醬產品,該產品的包裝即為系爭具有高度識別性的玻璃瓶設計。Heinz認為被告Figueroa未經同意擅自使用此瓶身設計的行為會造成消費者混淆,搭便車利用Heinz花費大量心力、時間和費用所累積的良好商譽來牟利。此外,Heinz並注意到Figueroa其他醬料產品例如莎莎醬、辣醬皆使用不相似的包裝,惟獨蕃茄醬產品包裝跟其有名的玻璃瓶設計幾乎完全相同。 自Heinz提起訴訟過了近一個禮拜,案情有了變化,Figueroa於4月初與Heinz和解,雖然Figueroa並未承認其侵害Heinz商標權,但同意從今年12月開始停止使用該玻璃瓶設計,並從此不再侵害Heinz的商業表徵(玻璃瓶設計)。然而,和解金額相關條款並未揭露。 此案之後,對於其他欲仿冒或剽竊Heinz的玻璃瓶設計者,是否會有遏阻影響,值得後續觀察。
加拿大政府提交予國會《人工智慧資料法案》加拿大政府由創新、科學和工業部長(Minister of Innovation, Science and Industry)代表,於2022年6月16日提交C-27號草案,內容包括聯邦的私部門隱私權制度更新,以及新訂的《人工智慧資料法案》(Artificial Intelligence and Data Act, 下稱AIDA)。如獲通過,AIDA將是加拿大第一部規範人工智慧系統使用的法規,其內容環繞「在加拿大制定符合國家及國際標準的人工智慧設計、開發與應用要求」及「禁止某些可能對個人或其利益造成嚴重損害的人工智慧操作行為」兩大目的。雖然AIDA的一般性規則相當簡單易懂,但唯有在正式發布這部包含絕大多數應用狀況的法規後,才能實際了解其所造成的影響。 AIDA為人工智慧監管所設立的框架包含以下六項: (1)方法 以類似於歐盟《人工智慧法案》採用的方式,建立適用於人工智慧系統具「高影響力」的應用方式的規範,關注具有較高損害與偏見風險的領域。 (2)適用範圍 AIDA將適用於在國際與省際貿易及商業行動中,設計、發展或提供人工智慧系統使用管道的私部門組織。「人工智慧系統」的定義則涵蓋任何「透過基因演算法、神經網路、機器學習或其他技術,自動或半自動處理與人類活動相關的資料,以產生結果、做出決策、建議或預測」的技術性系統。 (3)一般性義務 I 評估及緩和風險的措施 負責人工智慧系統的人員應評估它是否是一個「高影響系統」(將在後續法規中詳細定義),並制定措施以辨識、評估與減輕使用該系統可能造成的傷害風險或具有偏見的結果。 II 監控 對該「高影響系統」負責的人員應建立準則,以監控風險緩解措施的遵守情況。 III 透明度 提供使用管道或管理「高影響系統」運作的人員應在公開網站上,以清晰的英語揭露 i 系統如何或打算如何使用。 ii 系統所生成果的類型及它所做出的決策、建議與預測。 iii 為辨識、評估與減輕使用該系統可能造成的傷害風險或具有偏見的結果,而制定的緩解措施。 iv 法規明定應揭露的其他訊息。 IV 記錄保存 執行受規範活動的人員應遵守紀錄保存要求。 V 通知 若使用該系統將導致或可能導致重大傷害,「高影響系統」的負責人應通知部門首長。 VI 匿名資料的使用 從事法案所規定的活動及在活動過程中使用或提供匿名資料的人員,必須依據規範制定關於(a)資料被匿名化處理的方式(b)被匿名化資料的使用與管理,兩方面的措施。 (4)部長命令 部門首長可以透過命令要求(a)製作紀錄(b)從事審計或聘請一位獨立的審計師執行(c)成立一個專責執行審計程序的組織(d)成立一個在有理由相信「高影響系統」之使用可能造成急迫重大傷害風險時負責進行終止或准許的組織。 (5)行政管理 AIDA為部門首長制定一項,可指定其所管轄部門中一名高級官員為「人工智慧與資料專員」的權利,其職責在協助部門首長管理與執行AIDA。 (6)罰則 違反AIDA規範之罰則主要為按公司、個人之收入衡量的罰款。特定嚴重狀況如以非法方式取得人工智慧訓練用資料、明知或故意欺騙大眾造成嚴重或心理傷害或財產上重大損失,亦可能判處刑事監禁。