防禦型專利聯盟係為NPE之一種重要類型,主要以抵制NPE侵擾為出發點,防禦型聯盟儘可能搶先攻擊型如NPE者去進行專利的授權或購買,加入防禦型聯盟者則可付出比與NPE進行和解所支付費用較少的金錢,成員其會員以取得不被NPE侵擾的地位。
NPE中屬於防禦型聯盟(Defensive Patent Aggregator)者,RPX(Rational Patent)之運作模式常可作為主要類型化參考對象之一。RPX為上市公司,其主要核心業務在於「緩和其會員被訴之可能」。RPX取得專利之資金主要來自會員年費,而各會員可取得RPX所有專利之「授權」,而收費結構不當然等於獲取專利之成本之分攤,以使會員已低於一般訴訟和解、或取得爭議專利等更為低的代價來防止被訴。在此同時,RPX本身也不會對他人起訴。
RPX所提供的防禦性聯盟策略,先行於其他NPE取得前那些潛在「危險性」的目標專利,甚至有可能向NPE取得專利,必要時,直接於訴訟仍在進行之時去取得專利。而在防禦以外,如其他非會員向會員起訴,會員也可以以RPX所有之專利進行反訴。
目前RPX會費在6萬5千美元至6900萬美元之間,依照會員本身營運規模之不同定之,但「會費等級」(rate card)會自加入之初鎖定不再更動,實際每年繳交費用則可能依據RPX所取得的所有專利價值增加而上昇 。而除此主要運作模式外,RPX也運用其廣泛取得專利之經驗,提供個別企業服務服務,得以較低的躉售價格取得專利(Syndicated Acquisitions),反之企業自行購買專利可能需要付出較高的「零售」價格
RPX的運作模式對於加入成為其「會員」者有兩項優勢:第一,減少「專利蟑螂」可取得的專利數量;其次,因可理解為全體會員合力進行防禦型專利取得故能減低這些專利取得之成本。
本文為「經濟部產業技術司科技專案成果」
2024年7月1日,美國實務界律師撰文針對使用生成式AI(Generative AI)工具可能導致的營業秘密外洩風險提出營業秘密保護管理的強化建議,其表示有研究指出約56%的工作者已經嘗試將生成式AI工具用於工作中,而員工輸入該工具的資訊中約有11%可能包含公司具有競爭力的敏感性資訊或客戶的敏感資訊,以Chat GPT為例,原始碼(Source Code)可能是第二多被提供給Chat GPT的機密資訊類型。系爭機密資訊可能被生成式AI工具提供者(AI Provider)用於訓練生成式AI模型等,進而導致洩漏;或生成式AI工具提供者可能會監控和存取公司輸入之資訊以檢查是否有不當使用,此時營業秘密可能在人工審查階段洩漏。 該篇文章提到,以法律要件而論,生成式AI有產生營業秘密之可能,因為營業秘密與著作權和專利不同之處在於「發明者不必是人類」;因此,由生成式 AI 工具協助產出的內容可能被視為營業秘密,其範圍可能包括:公司的內部 AI 平台、基礎的訓練算法和模型、輸入參數和輸出結果等。惟基於目前實務上尚未有相關案例,故生成式AI輸出結果在法律上受保護的範圍與條件仍需待後續的判例來加以明確。 實務專家提出,即使訴訟上尚未明確,企業仍可透過事前的管理措施來保護或避免營業秘密洩露,以下綜整成「人員」與「技術」兩個面向分述之: 一、人員面: 1.員工(教育訓練、合約) 在員工管理上,建議透過教育訓練使員工了解到營業秘密之定義及保護措施,並告知向生成式AI工具提供敏感資訊的風險與潛在後果;培訓後,亦可進一步限制能夠使用AI工具的員工範圍,如只有經過培訓及授權之員工才能夠存取這些AI工具。 在合約方面,建議公司可與員工簽訂或更新保密契約,納入使用生成式AI的指導方針,例如:明確規定禁止向生成式AI工具輸入公司營業秘密、客戶數據、財務信息、未公開的產品計劃等機密資訊;亦可增加相關限制或聲明條款,如「在生成式AI工具中揭露之資訊只屬於公司」、「限制公司資訊僅能存儲於公司的私有雲上」等條款。 2.生成式AI工具提供者(合約) 針對外部管理時,公司亦可透過「終端使用者授權合約(End User License Agreement,簡稱EULA)」來限制生成式AI工具提供者對於公司在該工具上「輸入內容」之使用,如輸入內容不可以被用於訓練基礎模型,或者該訓練之模型只能用在資訊提供的公司。 二、技術方面: 建議公司購買或開發自有的生成式AI工具,並將一切使用行為限縮在公司的私有雲或私有伺服器中;或透過加密、防火牆或多種編碼指令(Programmed)來避免揭露特定類型的資訊或限制上傳文件的大小或類型,防止機密資訊被誤輸入,其舉出三星公司(Samsung)公司為例,三星已限制使用Chat GPT的用戶的上傳容量為1024位元組(Bytes),以防止輸入大型文件。 綜上所述,實務界對於使用生成式AI工具可能的營業秘密風險,相對於尚未可知的訴訟攻防,律師更推薦企業透過訴訟前積極的管理來避免風險。本文建議企業可將前述建議之作法融入資策會科法所創意智財中心於2023年發布「營業秘密保護管理規範」中,換言之,企業可透過「營業秘密保護管理規範」十個單元(包括從最高管理階層角色開始的整體規劃建議、營業秘密範圍確定、營業秘密使用行為管理、員工管理、網路與環境設備管理、外部活動管理,甚至是後端的爭議處理機制,如何監督與改善等)的PDCA管理循環建立基礎的營業秘密管理,更可以透過上述建議的做法(對單元5.使用管理、單元6.1保密約定、單元6.4教育訓練、單元7.網路與環境設備管理等單元)加強針對生成式AI工具之管理。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
國際可再生能源組織發布2021年約旦可再生能源進度評估報告2020年7月,約旦能源與礦產資源部發佈「約旦能源綜合戰略(2020-2030)」,主要著重於下列三點:一、提升再生能源發電比例,降低能源進口量。將本地能源發電比例提高,同時降低石油衍生品於能源結構和發電總量中之比例。二、暫停核電項目計畫,未來約旦將不採用傳統來源生產更多之電力。三、降低碳排放量。 而在2021年2月時,國際可再生能源組織(IRENA)與約旦能源與礦產資源部透過視訊會議的討論結果,共同發布一份約旦可再生能源進度評估報告,指出約旦的可再生能源電量自2014年至2020年間,由幾近為零,增長約20%。 上開結果可能與約旦能源與礦產資源部重視太陽光電(PV)和風力發電的政策有關,包括整合產業發展的各種有利條件,如當地產業發展及所需之技術,以使收益最大化。此外,為使未來可再生能源更加增長,同時為了因應電網基礎設施(the grid infrastructure)的發展進度與可再生能源發展的進步不同,創造能源最終用途的需求及使其盡早電氣化,將成為未來政策上最重要的方向之一。
日本政府對於「小型無人機進階安全確保制度」進行研議,並研提「航空法」修正建議日本政府於2016年1月5日成立「小型無人機進階安全確保制度設計相關小組委員會」(小型無人機の更なる安全確保のための制度設計に関する分科会),聚焦無人機飛安方面之實務議題。會議由内閣官房内閣参事官擔任議長,並由國土交通省航空局協助辦理,民間參與者則多為相關產業公協會,目前規劃每兩個月開1-2次會議,其運行方式包括:原則上為非公開會議,其會議資料將於會後公開,但若議長認有必要,則得決定一部或全部不公開;此外,對於委員會成員以外的民間企業及專家學者之意見,亦應聽取。 為更進一步確保小型無人機於飛行時之安全性,本次會議對「航空法」提出如下修正建議: (1)除「航空法」第一百三十二條之二所規範之飛行方式及禁飛區域外,尚有其他相關飛安重要事項亦應注意,例如:機體本身之缺陷、操控者失誤、不可預期的天候變化、機體重量等(一定重量以上之無人機,對於機體性能及操控者技術應有更高要求,未來可思考訂定罰則或提供擔保)。 (2)對於機場周邊應有比現行法更嚴格之規範,除因此處操控無人機容易誤入禁區外,該範圍以內通常是飛安事故搜救區,恐妨害搜救之進行。 (3)關於禁區內飛行許可之審查,應包含:機體機能與性能、操控者知識、技術與經歷。 (4)對於商業、營業用無人機,應有更高的安全性要求。但何謂商業、營業用之定義及更高安全性究何所指須有更明確的標準!
美國情報體系發布「情報體系運用人工智慧倫理架構」美國國家情報體系(United States Intelligence Community)係於1981年依據行政命令第12333號(Executive Order 12333)所建立,其任務為蒐集、分析與提供外國情報與反情報資訊美國國家領導人,服務對象包含美國總統、執法單位以及軍事單位。其於2020年6月提出「情報體系人工智慧倫理架構」(Artificial Intelligence Ethics Framework for the Intelligence Community),為人工智慧系統與訓練資料、測試資料之採購、設計、研發、使用、保護、消費與管理提出指引,並指出人工智慧之利用須遵從以下事項: 一、於經過潛在風險評估後,以適當且符合目的之方法利用; 二、人工智慧之使用應尊重個人權利與自由,且資料取得應合法且符合相關政策與法規之要求; 三、應於利用程序內結合人類判斷與建立問責機制,以因應AI產品之風險並確保其決策之適當性。 四、於不破壞其功能與實用性之前提下,盡可能確認、統計以及降低潛在之歧視問題。 五、AI進行測試時應同時考量其未來利用上可預見之風險。 六、持續維持AI模型之迭代(Iteration)、版本與改動之審查。 七、AI之建立目的、限制與設計之輸出項目,應文件化。 八、盡可能使用可解釋與可理解之方式,讓使用者、審查者與公眾理解為何AI會產出相關決策。 九、持續不定期檢測AI,以確保其符合當初建置之目的。 十、確認AI於產品循環中各階段之負責人,包含其維護相關紀錄之責任。