製藥產業的競爭情勢越來越劇烈,藥商間為了求取最大的利益,在以研發新藥為主的原開發藥廠及以複製專利到期的藥品為核心的學名藥廠之間,衍生出新的競合模式,特別是針對專利侵權訴訟予以和解。過去幾年,美國FTC與FDC花了相當多的時間調查製藥界此一實務是否會扭曲市場競爭,因而違反競爭法的精神,美國國會更在2003年底通過法律,對此類競爭予以規範。繼美國之後,歐盟也在2008年1月中,就有關原開發藥廠與學名藥間的競合作關係,向境內的製藥產業發出產業調查,這是歐盟首次就製藥產業內的專利訴訟和解協議展開調查。 歐盟此次調查最主要的目的是為了深入瞭解製藥產業的商業實務,調查內容包括:(1)在專利的策略方面,藥廠對於專利的取得與執行法律保護,是為了要保護創新發明,還是為了阻擋或限制創新藥以及(或)學名藥競爭的目的;(2)藥商之間訴訟纏訟的情形如何;(3)關於專利訴訟和解協議的簽署情形。雖然歐盟此項調查並不一定意味其即可找出原開發藥廠與學名藥廠違反競爭的證據,但歐盟此次的調查舉動或許意味,歐盟已從美國經驗中開始懷疑製藥產業內原開發藥廠與學名藥廠間不尋常的合作模式,對於是否有違反競爭之情事存疑。
美國FDA發布保密證書指引草案,可防止研究人員被迫揭露研究參與者可識別個人之敏感性資料美國FDA(Food and Drug Administration)於2019年11月22日發布「保密證書(Certificates of Confidentiality, CoC)」指引草案。保密證書之目的在於防止研究人員在任何聯邦、州或地方之民事、刑事、行政、立法或其他程序中被迫揭露有關研究參與者可識別個人之敏感性資料,以保護研究參與者之隱私。保密證書主要可分為兩種,對於由聯邦所資助,從事於生物醫學研究、行為研究,臨床研究或其他研究,於研究時會收集可識別個人之敏感性資料之研究人員而言,保密證書會依法核發予該研究人員,稱為法定型保密證書(mandatory CoC);而對於從事非由聯邦所資助之研究的研究人員而言,原則上保密證書不會主動核發予該研究人員,惟當研究涉及FDA管轄之產品時,可由FDA自行裁量而核發保密證書,稱為裁量型保密證書(discretionary CoC),本指引草案旨在提供裁量型保密證書之相關規範。 FDA建議裁量型保密證書之申辦者先自問以下四個問題,且所有問題之答案應該皆為肯定:(1)申辦者所參與之人體研究是否收集可識別個人之敏感性資料?(2)申辦者是否為該臨床研究之負責人?(3)申辦裁量型保密證書之人體研究是否涉及受FDA管轄之產品的使用或研究?(4)申辦者之研究措施是否足以保護可識別個人之敏感性資料之機密性? 於FDA完成審查後,將向申辦人傳送電子回覆信件,表明是否核准裁量型保密證書。若結果為核准,則該電子回覆信件即可作為保密證書。該保密證書之接受者應執行法律所規定以及FDA於電子回覆信件中所要求之保證事項,以保護人體研究參與者之隱私。
因應使用「生成式AI(Generative AI)」工具的營業秘密管理強化建議2024年7月1日,美國實務界律師撰文針對使用生成式AI(Generative AI)工具可能導致的營業秘密外洩風險提出營業秘密保護管理的強化建議,其表示有研究指出約56%的工作者已經嘗試將生成式AI工具用於工作中,而員工輸入該工具的資訊中約有11%可能包含公司具有競爭力的敏感性資訊或客戶的敏感資訊,以Chat GPT為例,原始碼(Source Code)可能是第二多被提供給Chat GPT的機密資訊類型。系爭機密資訊可能被生成式AI工具提供者(AI Provider)用於訓練生成式AI模型等,進而導致洩漏;或生成式AI工具提供者可能會監控和存取公司輸入之資訊以檢查是否有不當使用,此時營業秘密可能在人工審查階段洩漏。 該篇文章提到,以法律要件而論,生成式AI有產生營業秘密之可能,因為營業秘密與著作權和專利不同之處在於「發明者不必是人類」;因此,由生成式 AI 工具協助產出的內容可能被視為營業秘密,其範圍可能包括:公司的內部 AI 平台、基礎的訓練算法和模型、輸入參數和輸出結果等。惟基於目前實務上尚未有相關案例,故生成式AI輸出結果在法律上受保護的範圍與條件仍需待後續的判例來加以明確。 實務專家提出,即使訴訟上尚未明確,企業仍可透過事前的管理措施來保護或避免營業秘密洩露,以下綜整成「人員」與「技術」兩個面向分述之: 一、人員面: 1.員工(教育訓練、合約) 在員工管理上,建議透過教育訓練使員工了解到營業秘密之定義及保護措施,並告知向生成式AI工具提供敏感資訊的風險與潛在後果;培訓後,亦可進一步限制能夠使用AI工具的員工範圍,如只有經過培訓及授權之員工才能夠存取這些AI工具。 在合約方面,建議公司可與員工簽訂或更新保密契約,納入使用生成式AI的指導方針,例如:明確規定禁止向生成式AI工具輸入公司營業秘密、客戶數據、財務信息、未公開的產品計劃等機密資訊;亦可增加相關限制或聲明條款,如「在生成式AI工具中揭露之資訊只屬於公司」、「限制公司資訊僅能存儲於公司的私有雲上」等條款。 2.生成式AI工具提供者(合約) 針對外部管理時,公司亦可透過「終端使用者授權合約(End User License Agreement,簡稱EULA)」來限制生成式AI工具提供者對於公司在該工具上「輸入內容」之使用,如輸入內容不可以被用於訓練基礎模型,或者該訓練之模型只能用在資訊提供的公司。 二、技術方面: 建議公司購買或開發自有的生成式AI工具,並將一切使用行為限縮在公司的私有雲或私有伺服器中;或透過加密、防火牆或多種編碼指令(Programmed)來避免揭露特定類型的資訊或限制上傳文件的大小或類型,防止機密資訊被誤輸入,其舉出三星公司(Samsung)公司為例,三星已限制使用Chat GPT的用戶的上傳容量為1024位元組(Bytes),以防止輸入大型文件。 綜上所述,實務界對於使用生成式AI工具可能的營業秘密風險,相對於尚未可知的訴訟攻防,律師更推薦企業透過訴訟前積極的管理來避免風險。本文建議企業可將前述建議之作法融入資策會科法所創意智財中心於2023年發布「營業秘密保護管理規範」中,換言之,企業可透過「營業秘密保護管理規範」十個單元(包括從最高管理階層角色開始的整體規劃建議、營業秘密範圍確定、營業秘密使用行為管理、員工管理、網路與環境設備管理、外部活動管理,甚至是後端的爭議處理機制,如何監督與改善等)的PDCA管理循環建立基礎的營業秘密管理,更可以透過上述建議的做法(對單元5.使用管理、單元6.1保密約定、單元6.4教育訓練、單元7.網路與環境設備管理等單元)加強針對生成式AI工具之管理。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
日本文部科學省發布產學合作研究成果歸屬合約範本【櫻花工具包】日本文部科學省於2002年提出產學合作契約範本,實行以來發現內容缺乏彈性,對於共同提交專利申請的共有專利權人能否進行商業化等研發成果歸屬問題規範不清。為此,2017年3月日本文部科學省科學技術及學術政策局參考英國智財局發布的Lambert toolkit等文件,提出11項合約範本,稱為【櫻花工具包】。 該工具的主要目標是期望產學合作從在意權利共有轉為重視研發成果商業化,提出包括大學或企業單獨擁有研發成果、雙方共有研發成果等多類型的合作契約模式,並解析如何從數種模式中選擇最適合的合約範本,盡可能在產學合作契約簽訂前,事先考量研究成果的商業化策略,從而提高研發成果商業化的可能性。當中建議,在進行模型選擇時需考慮以下因素: 對研發成果的貢獻程度。 智財權歸屬於大學的處理方法。 是否有必要通過大學發布研究成果。 研究成果歸屬(大學擁有、企業擁有、雙方共有)。 雙方是否同意智財權共有。 此外,為了盡可能使研究成果的智財權更廣泛應用,在參考適用範本時,皆應考量研發成果商業化的靈活性,無論智財權歸屬於大學或企業方,都必須滿足以下的條件: 不限制大學後續研究的可能性。 所有的智財權都要適當的努力使其商業化。 研究成果需在約定的期間內進行學術發表。 日本此一工具包之內容對於產學合作研究之推展,提供了更細緻化的指引,或許可為我國推行相關政策之參考,值得持續關注其內涵與成效。