論專利公開前機密管理之重要性

美國德州第一上訴法院於2023年8月的一項裁決強調了以下重點—即便企業的智慧財產權戰略是圍繞在專利申請而建立的,仍應證明其有在專利公開前採取到位的營業秘密保護政策。

在FMC Technologies, Inc. v. Richard Murphy and Dril-Quip, Inc.一案中,FMC是一家石油與天然氣公司,而Murphy是其前首席工程師,可接觸FMC公司重要研發技術。兩者的關係於2018年惡化,同年12月FMC公司提出了ITW系統(orientation-free subsea tree system)的專利申請,Murphy則於隔年5月收到Dril-Quip公司的錄用通知。離職時Murphy有簽署一份協議,承認其有義務為FMC公司持有的專屬資訊保密,並已將所有與工作相關的資訊歸還。

Murphy於Dril-Quip公司被任命負責開發與ITW系統幾乎相同的競爭產品。2020年5月,Dril-Quip公司於海上技術會議發布其下一代海底採油系統(VXTe Subsea Tree)的相關內容,並宣布將商業化生產。據此,FMC公司控訴Murphy使用其花費了多年時間和數百萬美元開發的營業秘密資訊。Dril-Quip公司則辯稱FMC公司所謂的營業秘密可輕易透過一般管道查明,且其未採取合理的努力來防止營業秘密外洩。

在判斷FMC公司是否有採取合理保密措施時,德州第一上訴法院針對其於專利尚未公開及等待核准審定期間是否有採取合理的努力進行審查,並發現下列情形:

1. FMC公司並未根據有存取該機密資訊需求的人設定權限,反而將其工程資料庫開放給所有公司內部的工程師,讓他們都可以遠端存取相關資料。
2. FMC公司並未禁止員工將公司的機密文件複製到外部伺服器上。

據此,德州第一上訴法院認定FMC公司於專利公開前未妥善保護其營業秘密,並認為被告Murphy未不當使用其營業秘密。最終,德州第一上訴法院判被告Murphy勝訴。

由上述裁決可以發現,企業在專利公開前仍應採取營業秘密保護政策,包括:(1)對機密資訊存取的權限控管、(2)規範對機密資訊的使用程序、規定等,以避免在訴訟中失利。關於前述之管理措施,可以參考資策會科法所創意智財中心發布的《營業秘密保護管理規範》,以了解如何降低自身營業秘密外洩之風險,並提升競爭優勢。

本文同步刊登於TIPS網站(https://www.tips.org.tw

相關連結
你可能會想參加
※ 論專利公開前機密管理之重要性, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9044&no=66&tp=1 (最後瀏覽日:2024/07/17)
引註此篇文章
你可能還會想看
英國提出巨量資料下之個人資料保護應遵循資料保護法之原則

美國國家標準與技術研究院公布人工智慧風險管理框架(AI RMF 1.0)

美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。 本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。 本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。

梵諦岡與IBM、微軟聯合呼籲對臉部辨識等侵入性技術進行監管

  2020年2月28日梵諦岡教宗與兩大科技巨頭IBM及微軟聯合簽署「羅馬呼籲AI倫理道德」文件,支持制定人工智慧(AI)發展倫理與道德規範,並特別呼籲應針對臉部辨識等侵入性技術進行監管。在聯合文件上特別提及臉部識別技術潛在之濫用風險,例如警察會使用臉部辨識系統調查犯罪行為、《財富》500強公司使用AI審查求職者,這兩個例子均具有潛在且高度之風險,使用不正確或是具有偏見之AI判斷均可能會造成傷害。誠如方濟各在致辭中說:「人工智慧記錄個人資料,並使用於商業或政治目的,而且通常是在個人不知情之情況下,這種不對稱,將使少數人了解我們的一切,但我們卻對他們一無所知,這將使批判性思維和對自由的自覺變得遲鈍,不平等現象急遽擴大,知識和財富在少數人手中累積,將對民主社會構成重大風險。」   此次會議希望在國家與國際層面上共同努力促進AI道德規範,並根據以下原則來發展和使用人工智慧。第一,良好的創新:人工智慧系統必須是可理解得,並且在包容性方面必須考慮到所有人的需求,以便每個人都能受益。第二,責任:設計和實施人工智慧者必須承擔責任和保持透明度。第三,公正性:避免根據偏見進行創造或採取行動,從而維護人類平等和尊嚴。第四,可靠性:人工智慧系統必須能夠可靠的運行。第五,安全和隱私:人工智慧系統必須安全運行並尊重用戶的隱私。   目前尚不清楚其他技術公司是否會簽署該文件,以及簽署人將如何實施,但教宗與兩大科技巨頭史無前例的合作,為人工智慧未來發展方向提供遠見卓識,能更加深入的去思考AI的道德意涵以及它將如何與人類更好的合作、互動,互利共生,相輔相成。

英國修正公布施行「2017年智慧財產權不正當威脅法」,使智慧財產權之法規範更具明確性

  英國智慧財產局於2017年10月1日修正公布施行智慧財產權不正當威脅法(IP Unjustified Threats Act 2017),使智慧財產權之法規範更具明確及一致性,並協助企業免於昂貴的訴訟費用。   所謂智慧財產權之不正當威脅(unjustified threat)係指無智慧財產權、智慧財產權已過期或無效、或雖未實際發生智慧財產權之侵權事實,卻對他人提起侵權之法律行為或措施,該行為耗費成本、引起市場混亂,致使客戶出走並造成企業合法販售商品或服務之業務停滯,並扼殺智慧財產創新之本質,破壞市場衡平。   因涉及智慧財產侵權之法規範複雜、不明確或不一致,且當有侵權之虞尚未進入司法審判程序前其紛爭難以解決,致使智慧財產權人(特別是擁有智慧財產權之中小企業)不願意實施其權利。因此,修正公布施行智慧財產權不正當威脅法將有助於智慧財產權人或第三人知悉何種行為算是威脅,提供明確之規範框架,鼓勵企業建立商談(talk first)文化,使爭議雙方可交換訊息以解決紛爭,而非興訟。並使企業或個人在智慧財產權爭議中取得公平合理的地位,以保護客戶及供應鏈(包括零售商或供應商),避免企業或個人因不正當威脅、惡性之商業競爭,而遭受損害。再者,智慧財產權之不正當威脅法適用於專利權、商標權及設計權,使智慧財產權法複雜之規範更趨明確且一致。

TOP