本文整理美國2025上半年營業秘密管理重要實務,以協助企業強化營業秘密保護。 一、實務常見的兩種不當使用營業秘密情境 由於數位化發展與遠距工作盛行,員工可以更容易地透過隨身碟、電子信箱等方式接觸並傳輸機密(數位文件)。 提醒公司應留意兩個實務常見的不當使用營業秘密的情境: 1. 員工離職後創業或跳槽至競爭公司。 2. 在公司因收購計畫進行盡職調查時,或公司與他方存有供應商、獨立承包商等合作關係期間,公司與他方共享機密資料,接收資訊方卻於協商破局/合作結束後持續留存並不當使用機密。 二、為防患未然,建議公司應「打造營業秘密保護文化」 「打造營業秘密保護文化」的7項重點如下: 1. 識別機密 公司應識別自身所擁有的營業秘密,區分營業秘密與一般資料。如果公司不清楚自己的營業秘密範圍,也會增加員工不知道需要謹慎處理哪些資料的風險。 2. 控管機密文件的重製、流通行為 監控機密文件的列印、下載等重製行為,禁止將公司機密資料傳輸至私人信箱或私人雲端帳戶。 3. 與員工簽訂保密契約,定期提醒保密義務,並客製化員工培訓課程 公司除與員工簽訂保密契約外,當員工開始新專案、轉調部門或升遷時,職務內容的變動,也會連帶影響公司需要向員工更新其對保密義務的理解。 公司應自員工入職起,進行定期的保密培訓與宣導,並針對特定職位客製化相關具體的保密情境,讓員工能夠確實了解公司的保密政策,知道自己應採取/不應採取某些行動,以及行動背後的原因。例如:工程師須了解技術文件的保護方式;銷售團隊需要與客戶資料、定價策略相關的保密培訓課程。 4. 離職人員管理 離職面談應明確提醒員工具持續性的保密義務,且留下相關紀錄,內容應包含對員工任職期間所接觸任何營業秘密的討論資訊,並讓員工簽署書面聲明,確認自己具有保密義務。 5. 網路控管 遠距登入公司系統須透過VPN。 6. 外部活動管理 公司應留意與外部單位(潛在合作夥伴、供應商或客戶)共用敏感資料時,契約須明確約定可共用的資料範圍、可共用資料的人員以及可共用資料的情境。契約應包含保密契約、標示機密資料、返還機密的流程以及定期稽核以確保遵守保密義務。 7. 稽核與改善 定期稽核與持續改善有助於強化營業秘密保護機制,例如:法務、資訊、研發及銷售等部門跨部門協力合作,並持續培訓以打造營業秘密保護文化。 三、面臨營業秘密訴訟,行動策略為關鍵 營業秘密案件通常需要立即採取行動,以防止造成無法彌補的損害。由於在訴訟階段,法院不會僅憑「懷疑」或「模糊描述」就核發禁制令。建議公司平時應落實以下管理措施,以便能夠在發現風險行為後2~3天內,迅速蒐集相應佐證: 1. 證據保全機制應包含:妥善保存電子郵件、系統存取紀錄、裝置使用紀錄等證據。 2. 區分營業秘密的範圍。 3. 持續執行公司所設定的控管措施,如:公司保密政策;保密契約、僱傭契約等契約的保密義務;員工培訓。 4. 留存能夠佐證營業秘密的經濟價值的相關資訊,如:研發投入成本、競爭優勢等。 綜上,公司如欲減少實務上營業秘密糾紛風險,應及早確認是否落實、需要精進公司的營業秘密管理機制,建議國內公司可參考資策會科法所創意智財中心於2023年發布之「營業秘密保護管理規範」,協助公司檢視並循序調整營業秘密管理作法。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
歐盟將公布精準醫療國際合作發展倡議歐盟於2016年5月公布將成立個人化醫療國際聯合會(International Consortium for Personalised Medicine, IC PerMed),並草擬發展倡議。其成立背景為目前用來治療大部分病人之一般藥品效果未如預期,且因藥物嚴重副作用導致需急性醫療入院情形,約超過60%之比例。此外,歐盟的醫療照護成本將隨著人口老化以及慢性疾病增加而加重。個人化醫療具有特定預防目的以及治療方法,因此,病人利用最佳的治療方是,可避免試驗與治療錯誤之問題。個人化醫療是一個快速成長的市場,歐洲醫療照護產業具有發展潛力,並同時帶來經濟成長與就業機會。 歐盟認為,儘管個人化醫療尚未有明確定義,但依據Horizon2020諮詢小組(Horizon 2020 Advisory Group)定義為利用個人表現型或基因型特徵之醫療模型,針對正確的個人、治療時間,以明確的醫療政策為目標進行診治,或者是找出疾病特徵給予即時的預防。其中,重要部份在於,個人化關注的不僅是藥品或醫療產品,尚需對於生物機制以及環境與疾病、健康之間的交互作用等進行瞭解是否影響整體的健康照護。雖然歐洲部分國家已經開始引進個人化醫療,但實際上歐洲仍處在早期執行階段,尚待更多的研究開發。 為此,歐盟執委會與部分健康研究機構以及決策組織團體等共同合作,決議成立個人化醫療國際聯合會,目標為2016年底之前開始此項計畫。歐盟執委會與IC PerMed組織成員合作,將進行以下事項: 1.將歐洲建立成為全球個人化醫療研究領導者地位 2.透過合作研究支持個人化醫療醫學 3.將個人化醫療的利益展現於民眾以及醫療照護體制 4.為精準醫療提供給民眾做好準備 IC PerMed將聚焦在研發補助與合作,以實現上述所設定之任務。目前,IC PerMed正研擬發展倡議藍圖。依據草擬之藍圖,IC PerMed將提供各組織成員之間彈性合作架構。藍圖主要建構於個人化醫療歐洲願景(Shaping Europe’s Vision for Personalised Medicine)之相關文件,該文件屬於政策研發議程(Strategic Research and Innovation Agenda, SRIA)之一部分,同時為先前歐盟所補助之PerMed(2013~2015)計畫範圍之一。依據PerMed SRIA,發展可區分為五項領域,包括: 發展過程與結果、整合巨量資料與ICT解決模式、將基礎轉為臨床研究、將研發鏈結市場、以及形成延續性的醫療照護體系。未來,IC PerMed發展倡議藍圖將依上述五個領域建構,並在2016年底預計公布第一部分的施行願景。
美國參議員提案鬆綁天使投資人須揭露自身財務資料的規定美國民主黨參議員Chris Murphy在2015年4月16日捲土重來提出「榮光法案」(Helping Angels Lead Our Startups Act,以下簡稱HALOS Act)。HALOS法案在上個會期胎死腹中,此次重新提出,旨在強調暢通管道以投資新創公司之重要性,Murphy表示:「我們應該尋求更便利的管道,讓各種財務狀態但具備財務知識的投資人(knowledgeable investors of any financial status)都能投資新創公司,利用他們的專業和資金來增強新創公司成功的可能性。」 舉辦「Demo Days」或「Pitch Events」,是現行許多美國創業家藉以增加與天使投資人(Angel Investors)連結的方式。在「Demo Days」此種場合,創業家通常僅向與會者展示其產品或服務,而不主動進行籌資,避免提及或發送與公司財務預測、業務成長等等與招募投資人有關的資訊、文件。 在「Pitch Events」的場合,其主要目的則為發掘潛在投資人,進而籌募新創公司所需之資金。但此種類似投資說明會的「Pitch Events」必須受到美國2012年「新創企業啟動法」(Jumpstart Our Business Startups Act,以下簡稱JOBS法)的規範,也就是會議進行方式是否涉及1933年證券交易法Rule 502(c) of Regulation D所指之「公開徵求」(general solicitation)、參與者是否為「合格投資人」(accredited investor)等問題。所謂的合格投資人是指符合一定的資格而足以被認定具有充分財務決定能力,JOBS法因此要求這些天使投資人必須交出一定的個人財務資料作為佐證。 批評者認為這些規定無助於讓新創公司籌募所需資金,也因此無法創造更多就業機會,因為許多投資人對於必須將自己的財務狀況分享給新創公司,甚至是活動策展人,往往是感到不太自在的。Murphy參議員認為這些規定是「繁瑣的第三方審核程序」、「是一種對隱私的侵犯,嚇跑了那些想要想要支持新創公司的投資人,特別是在新創公司最需要資金的時刻」。 Murphy參議員提出此法案回應了批評者的建議,主張法規對於這些天使投資人團體(Angel Investor Group)應該有不一樣的規範方式,因為這些天使投資人與新創公司通常早已具有家族或朋友等人際網絡關係。
美國情報體系發布「情報體系運用人工智慧倫理架構」美國國家情報體系(United States Intelligence Community)係於1981年依據行政命令第12333號(Executive Order 12333)所建立,其任務為蒐集、分析與提供外國情報與反情報資訊美國國家領導人,服務對象包含美國總統、執法單位以及軍事單位。其於2020年6月提出「情報體系人工智慧倫理架構」(Artificial Intelligence Ethics Framework for the Intelligence Community),為人工智慧系統與訓練資料、測試資料之採購、設計、研發、使用、保護、消費與管理提出指引,並指出人工智慧之利用須遵從以下事項: 一、於經過潛在風險評估後,以適當且符合目的之方法利用; 二、人工智慧之使用應尊重個人權利與自由,且資料取得應合法且符合相關政策與法規之要求; 三、應於利用程序內結合人類判斷與建立問責機制,以因應AI產品之風險並確保其決策之適當性。 四、於不破壞其功能與實用性之前提下,盡可能確認、統計以及降低潛在之歧視問題。 五、AI進行測試時應同時考量其未來利用上可預見之風險。 六、持續維持AI模型之迭代(Iteration)、版本與改動之審查。 七、AI之建立目的、限制與設計之輸出項目,應文件化。 八、盡可能使用可解釋與可理解之方式,讓使用者、審查者與公眾理解為何AI會產出相關決策。 九、持續不定期檢測AI,以確保其符合當初建置之目的。 十、確認AI於產品循環中各階段之負責人,包含其維護相關紀錄之責任。