生命科學領域的企業應透過營業秘密保護其部分創新

近期由於營業秘密議題受到重視,引起廣泛討論,美國實務界律師於彭博社法律專欄(Bloomberg Law Practical Guidance)指出生命科學領域的企業不應僅尋求專利的保護,而應考慮透過營業秘密來保護其部分創新,比如:製造技術、分析工具及方法、配方等,並指出保護營業秘密所應採取的具體措施。

在Mayo Collaborative Servs. v. Prometheus Labs一案中,美國最高法院認為診斷方法並非真正的應用,因此不符合可取得專利的資格;在Ass'n for Molecular Pathology v. Myriad Genetics一案中,美國最高法院認為將天然基因分離的技術不符合可取得專利的資格。由上述判決可以發現,生命科學領域的公司能取得專利的範圍被限縮了,因此該領域的企業應考慮透過營業秘密來保護其創新。

營業秘密相對於專利的優勢在於,專利有保護期限,但營業秘密若未公開揭露則能持續受到保護。另外,根據美國專利法(Patent Act),專利保護之客體限於有用且新穎的發明,但營業秘密保護之客體不僅限於此。不過,以營業秘密保護創新同樣存在風險,比如可能面臨前員工、現任員工將其洩露或是由於合作案導致其被竊取的情況等。

為避免上述情況之發生,企業應採取下列措施,包括:
1. 要求員工簽署保密協議,並於協議中具體說明營業秘密之範圍、保密期限,同時確保員工離職時歸還與營業秘密有關的資訊及設備;
2. 將涉及營業秘密的文件標示為機密;
3. 將機密文件及檔案儲存於上鎖的櫃子或受密碼保護的電腦中;
4. 根據員工的職責,僅允許必要的員工存取營業秘密資訊;
5. 對員工進行教育訓練,使其了解哪些資訊被視為營業秘密而不應洩露;
6. 透過監視設備監控保存營業秘密的位置;
7. 與合作單位簽署合作協議時,確保協議中有明確規定哪些資訊被視為營業秘密、分享營業秘密的方式、保密期限、授權的範圍等。

綜上所述,由於可取得專利的範圍被限縮,生命科學領域的企業應考慮透過營業秘密來保護其部分創新。在以營業秘密保護其創新時,應確保有採取與員工簽署保密協議、識別機密、權限控管、教育訓練、與合作單位簽署合作協議等措施。關於前述營業秘密管理措施之重要內容,企業可以參考資策會科法所創意智財中心發布的「營業秘密保護管理規範」,並進一步了解該如何管理,以降低自身營業秘密外洩之風險,並提升其競爭優勢。

本文同步刊登於TIPS網站(https://www.tips.org.tw

相關連結
你可能會想參加
※ 生命科學領域的企業應透過營業秘密保護其部分創新, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9066&no=64&tp=1 (最後瀏覽日:2026/01/24)
引註此篇文章
你可能還會想看
避免昂貴訴訟成本,微軟參與專利審查團隊

  微軟成為crowdsourcing(集結式資訊來源)服務的第一會員,其服務用於對抗專利流氓(patent trolls)所提出昂貴的訴訟,挑戰將訴訟中所使用的軟體專利使之無效。   Litigation Avoidance是由全球線上社群100萬名科學家及技術人員所組成的Article One Partners所建立的一種付費服務。該組織採用crowdsourcing,其為透過網際網路所採用的一種社交媒體工具,藉由找出前案或先前揭露資料中證明專利無效之證據。而Article One所取得的利潤是由使用crowdsourcing資訊的企業而來的,但並未對外揭露收費的價格。   根據Article One指出,Litigation Avoidance主要針對的目標是專利流氓,其為購買大量專利,透過所買的專利向其他企業提出訴訟,進而要求權利金或授權金。   受到專利流氓提出訴訟的微軟指出,Litigation Avoidance服務將是應訴前調查專利品質的另一種工具。微軟首要專利律師Bart Eppenauer說明,”使用Litigation Avoidance服務其目的為降低風險及降低潛在的訴訟成本”。   Article One試圖解決問題之一,為crowdsourcing技術可於數周內得到專利評估結果,可取代需花費數月或數年始得產生結果的美國專利商標局低效能的專利審查系統。

日本《研究資料基盤整備與國際化戰略》報告書

  日本因應各先進國家近年於開放科學概念下,政府資助研發計畫研究資料管理及開放之倡議與制度化推展趨勢,內閣府於2015年提出開放科學國際動向報告書,並在第5期科學技術基本計畫與2019年統合創新戰略中規劃推動開放科學。上述政策就研究資料管理開放議題,擬定了資料庫整備、研究資料管理運用方針或計劃之制定、掌握相關人才培育與研究資料運用現況等具體施政方針。在此背景下,內閣府於2018年設置「研究資料基盤整備與國際化工作小組(研究データ基盤整備と国際展開ワーキング・グループ)」,持續檢討日本國內研究資料管理、共享、公開、檢索之基盤系統建構與政府制度、國家研究資料戰略與資料方針、國際性層級之推動方向等議題,在2019年10月據此作成《研究資料基盤整備與國際化戰略》(研究データ基盤整備と国際展開に関する戦略)報告書,形成相關政策目標。   本報告書所設定的政策目標採階段性推動,區分為短期目標與中長期目標。短期預計在2020年前,正式開始運用目前開發測試中之研究資料基盤雲端平台系統(NII Research Data Cloud, RDC),針對射月型研發計畫研擬並試行研究資料管理制度,建構詮釋資料(metadata)之集中檢索體系,並建立與歐洲開放科學雲(EOSC)之連結;中長期目標則規劃至2025年前,持續調適運用RDC,正式施行射月型研發計畫之研究資料管理制度,確立共享與非公開型研究資料之管理框架,蒐整管理資料運用現況之相關資訊,並逐步擴張建立與全球研究資料共享平台間之連結。

美國國家標準暨技術研究院規劃建立「人工智慧風險管理框架」,並徵詢公眾對於該框架之意見

  美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)為管理人工智慧對於個人、組織以及社會所帶來之風險,於2021年7月29日提出將建立「人工智慧風險管理框架」(Artificial Intelligence Risk Management Framework, AI RMF)之規畫並徵詢公眾意見,截止日為9月15日,並預計於10月發布正式報告。   依照NIST說明,公眾所建議之人工智慧風險管理框架,可促進人工智慧之可信賴性,其中包含如何應對並解決人工智慧於設計、發展及使用過程中所遭遇之「精確度」(accuracy)、「可解釋性」(explainability)、「偏見」(bias)等議題。此外,上開管理框架預計為非強制性、供企業自願性使用於人工智慧設計、發展、使用、衡量及評估之人工智慧標準。   依現有公眾意見徵詢結果,其中DeepMind公司建議於人工智慧設計初期,必須預先構思整體系統之假設是否符合真正社會因果關係。舉例言之,當設計一套可預測民眾健保需求程度之系統時,如輸入參數僅考量民眾於醫療上的花費,將使僅有可負擔較高醫療費用之民眾被歸類為健保需求程度較高者,從而導致健保制度排擠經濟負擔程度較差之公民,故在設計系統時,應從預先設定之假設事實反面(counter-factual)思考並驗證是否會產生誤差或公平性之問題(例如預先思考並驗證「醫療費用支出較低之民眾是否即可被正確歸類為健保需求度低之民眾」)。惟進行上述驗證需要大量社會資料,因此DeepMind也建議NIST應建立相關機制,使這些社會資料可以被蒐集、使用。   此外,亦有民眾建議管理框架應有明確之衡量方法以及數值指標,以供工程界遵循。同時鑒於人工智慧發展極為快速,未來可能有不同於以往之人工智慧類型出現,故亦建議NIST應思考如何在「建構一套完整且詳細之人工智慧治理框架」與「保持人工智慧治理框架之彈性與靈活性」之間取得平衡。   最後,目前也有許多徵詢意見指出,許多人工智慧治理之目標會相互衝突。舉例言之,當NIST要求人工智慧系統應符合可解釋性,則人工智慧公司勢必需要經常抽取人工智慧系統中之「數據軌跡」(audit logs),惟數據軌跡可能被認為是使用者之個人資料,因此如何平衡或完善不同治理框架下之目標,為未來應持續關注之議題。

落實完善數位資料管理機制,有助於降低AI歧視及資料外洩風險

落實完善數位資料管理機制, 有助於降低AI歧視及資料外洩風險 資訊工業策進會科技法律研究所 2023年07月07日 近年來,科技快速發展,AI(人工智慧)等技術日新月異,在公私部門的應用日益廣泛,而且根據美國資訊科技研究與顧問公司Gartner在2023年5月發布的調查指出,隨著由OpenAI開發的ChatGPT取得成功,更促使各領域對於AI應用的高度重視與投入[1],與此同時,AI歧視及資料外洩等問題,亦成為社會各界的重大關切議題。 壹、事件摘要 目前AI科技發展已牽動全球經濟發展,根據麥肯錫公司近期發布的《生成式人工智慧的經濟潛力:下一個生產力前沿(The next productivity frontier)》研究報告指出,預測生成式AI(Generative AI)有望每年為全球經濟增加2.6兆至4.4兆的經濟價值[2]。同時在美國資訊科技研究與顧問公司Gartner對於超過2500名高階主管的調查中,45%受訪者認為ChatGPT問世,增加其對於AI的投資。而且68%受訪者認為AI的好處大於風險,僅有5%受訪者認為風險大於好處[3]。然而有社會輿論認為AI的判斷依賴訓練資料,將可能複製人類偏見,造成AI歧視問題,而且若程式碼有漏洞或帳戶被盜用時,亦會造成資料外洩問題。 貳、重點說明 首先,關於AI歧視問題,以金融領域為例,近期歐盟委員會副主席Margrethe Vestager強調若AI用於可能影響他人生計的關鍵決策時,如決定是否能取得貸款,應確保申請人不受性別或膚色等歧視[4],同時亦有論者認為若用於訓練AI的歷史資料,本身存有偏見問題,則可能導致系統自動拒絕向邊緣化族群貸款,在無形之中加劇,甚至永久化對於特定種族或性別的歧視[5]。 其次,關於資料外洩問題,資安公司Group-IB指出因目前在預設情況下,ChatGPT將保存使用者查詢及AI回應的訊息紀錄,若帳戶被盜,則可能洩露機敏資訊。據統計在2022年6月至2023年5月間,在亞太地區有近41000個帳戶被盜,而在中東和非洲地區有近25000個帳戶被盜,甚至在歐洲地區也有近17000個帳戶被盜[6]。另外在2023年3月時,ChatGPT除了發生部分用戶能夠檢視他人聊天紀錄標題的問題外,甚至發生個人資料外洩問題,即用戶可能知悉他人的姓名、電子郵件,付款地址,信用卡到期日及號碼末四碼等資料[7]。 參、事件評析 對於AI歧視及資料外洩等問題,應透過落實完善數位資料治理與管理機制,以降低問題發生的風險。首先,在收集訓練資料時,為篩選適合作為模型或演算法基礎的資料,應建立資料評估或審查機制,減少或避免使用有潛在歧視問題的資料,以確保分析結果之精確性。 其次,不論對於訓練資料、分析所得資料或用戶個人資料等,均應落實嚴謹的資料保密措施,避免資料外洩,如必須對於資料進行標示或分類,並依照不同標示或分類,評估及採取適當程度的保密措施。同時應對於資料進行格式轉換,以無法直接開啟的檔案格式進行留存,縱使未來可能不慎發生資料外洩,任意第三人仍難以直接開啟或解析資料內容。甚至在傳送帳戶登入訊息時,亦應採取適當加密傳送機制,避免遭他人竊取,盜取帳戶或個人資料。 財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境完善,於2021年7月發布「重要數位資料治理暨管理制度規範(Essential Data Governance and Management System,簡稱EDGS)」,完整涵蓋數位資料的生成、保護與維護,以及存證資訊的取得、維護與驗證的流程化管理機制,故對於不同公私部門的AI相關資料,均可參考EDGS,建立系統性數位資料管理機制或強化既有機制。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Gartner, Gartner Poll Finds 45% of Executives Say ChatGPT Has Prompted an Increase in AI Investment (May 3, 2023), https://www.gartner.com/en/newsroom/press-releases/2023-05-03-gartner-poll-finds-45-percent-of-executives-say-chatgpt-has-prompted-an-increase-in-ai-investment (last visited June 30, 2023). [2]McKinsey, The economic potential of generative AI: The next productivity frontier (June 14, 2023), https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/the-economic-potential-of-generative-AI-the-next-productivity-frontier#introduction (last visited June 30, 2023). [3]Gartner, supra note 1. [4]Zoe Kleinman, Philippa Wain & Ashleigh Swan, Using AI for loans and mortgages is big risk, warns EU boss (June 14, 2023), https://www.bbc.com/news/technology-65881389 (last visited June 30, 2023). [5]Ryan Browne & MacKenzie Sigalos, A.I. has a discrimination problem. In banking, the consequences can be severe (June 23, 2023), https://www.cnbc.com/2023/06/23/ai-has-a-discrimination-problem-in-banking-that-can-be-devastating.html (last visited June 30, 2023). [6]Group-IB, Group-IB Discovers 100K+ Compromised ChatGPT Accounts on Dark Web Marketplaces; Asia-Pacific region tops the list (June 20, 2023), https://www.group-ib.com/media-center/press-releases/stealers-chatgpt-credentials/ (last visited June 30, 2023). [7]OpenAI, March 20 ChatGPT outage: Here’s what happened (Mar. 24, 2023),https://openai.com/blog/march-20-chatgpt-outage (last visited June 30, 2023).

TOP