自2013年起,新加坡綜合考量其天然資源匱乏之劣勢與位處東南亞經貿核心之優勢,提出「智慧財產中心藍圖」(IP Hub Master Plan),目標在10年內讓新加坡成為亞洲的全球智慧財產營運中心(IP Hub),藉以打造新加坡作為亞洲金融與法律中心之重要地位;「智慧財產中心藍圖」的具體規劃包含在「交易與管理」、「高值智財申請」與「爭議解決」等三大面向,成為匯聚亞洲且面向全球的智財營運中心。
在考量全球經濟成長力趨緩,世界各國紛紛加大投資創新與數位轉型的趨勢下,新加坡智財局(IPOS)於2017年再次更新這份藍圖:盤點自本藍圖提出迄今的各項執行成果,並探討如何與世界趨勢接軌。在更新版藍圖中強調未來智慧財產在具創新力公司資產內的比重將遠高於實體財產,對智財體制的依賴將與日俱增,新加坡應及早因應以提供新創產業包含智財保護、管理與最大化智財價值等協助,以打造未來產業競爭力。
更新版藍圖引用OECD「創新就是將創意帶往市場」之定義,智財產業將成為創新型經濟(innovation-driven economy)中的關鍵。根據IPOS估計,智財交易與管理活動將為新加坡在未來5年創造至少15億新幣的產值,而未來的挑戰在於提高「智財創造」的便利、「智財保護」的普及,以及「智財商業化」的推進等三大面向;因此IPOS將加強智財檢索與政府機關間合作、協助中小企業導入智財管理制度提升企業效益,並打造無形資產評價、交易與融資平台,以達成更新版藍圖所提出之挑戰目標。
本文為「經濟部產業技術司科技專案成果」
歐洲藥品管理局(The European Medicines Agency,EMA)於3月底至6月初陸續發布四份利益衝突範。包括「處理管理董事會利益衝突政策方針」(European Medicines Agency Policy on the Handling of Conflicts of Interests of the Management Board),將董事會自過去的利益衝突獨立出來單獨規範;並針對違反利益聲明揭露訂立「EMA科學委員會和專家違反利益衝突信賴程序」(European Medicines Agency Breach of Trust Procedure on Conflicts of Interests for Scientific Committee Members and Experts),和「EMA管理董事會違反利益衝突信賴程序」(European Medicines Agency Breach of Trust Procedure on Conflicts of Interests for Management Board Members);以及修定「處理管理董事會、科學委員會成員和專家利益衝突政策方針」(European Medicines Agency Breach of Trust Procedure on Conflicts of Interests for Scientific Committee Members and Experts)。 針對專家和管理董事會所制定的處理利益衝突規範,主要目的是確保兩者在參與EMA的活動時,不會發生與醫藥業者相關聯的利益衝突,影響EMA公正性。觀察上述規範,可以發現EMA對於專家和管理董事會兩者的規範原則相當一致,皆聚焦於增進利益衝突處理過程的強健性(robustness)、有效性(efficiency)和透明性(transparency)。分別規範的原因在於兩者功能上的區別,分述如下: 1. 專家規範層面,有鑒於在先進醫藥領域中的專家有限,缺少可替代性,因此規範目的在於兼顧公正性與專業之間的平衡; 2. 管理董事會層面,由於其主要任務為監管和決策,規範上區別成員所參與活動的程度和範圍做更為細部的規範,與專家不同,並非有利益衝突就必須迴避。 為進一步加強EMA處理利益衝突的強健性,EMA科學委員會和專家,以及管理董事會違反利益衝突信賴程序的主要規範內容為專家和管理董事會成員作出不實利益聲明時,EMA的處理程序。可區分為調查、聽證與修正三個階段,分述如下: 1.調查階段,首先調查系爭當事人是否為不實之利益聲明後,評估是否啟動違反利益衝突信賴程序; 2.聽證階段,召開聽證會,聽證系爭當事人陳述觀點。倘若確定違反利益衝突信賴,系爭當事人即自EMA除名; 3.修正階段,EMA將審查系爭當事人曾經參與科學審查案件的公正性,並評估是否進行補救措施。 雖然EMA對於專家是否確實聲明利益缺少強制力,然而仍能透過新的利益衝突機制設計,看出EMA對完善利益衝突規範的企圖,值得近來正在修訂利益衝突機制的我國學習。
聯合國委員會通過聲明 禁止各種形式複製人研究面對科學界越來越無法抵擋的複製人浪潮,聯合國二月十八日召開一項特別會議,並表決通過聲明,呼籲各國政府禁止各種形式的複製人研究,包括用於研究人類幹細胞的技術等。不過項聲明並不具強制力。 聯合國法律委員會是以七十一票贊成,三十五票反對,四十三票棄權下,通過這項由宏都拉斯和美國布希政府提出的支持禁止複製人的聲明,委員會通過後交給聯合國大會,由一百九十一個會員國成員最後決定。回教國家已經表明,聯合國大會表決時將棄權,因為聯合國內部並無法達成共識﹔而目前各自有人類幹細胞研究的英國,比利時和新加坡都反對這項聲明,並稱聲明內容不會影響他們的「醫療性幹細胞研究」。 會中支持和反對陣營的最主要爭議核心,在於醫療性複製人類的研究,這類研究必須複製人類胚胎取得幹細胞,實驗結束後銷毀。支持這項研究技術的科學家認為,人類幹細胞研究為許多至今仍無法治療的疾病帶來新希望,例如阿茲海默症,各種癌症,糖尿病和脊椎傷害患者,影響約一億人﹔但是如美國,加拿大等反對國家則認為,這種研究不論是哪一種目的,都是在剝奪利用一個人的生命。聯合國成員在二○○一年起討論制定一項具約束力的全球性公約,禁止複製人,不過各國歧見擴大,一直無法達成共識。義大利因此提議制定不具強制力的宣言,呼籲各國各自立法「禁止任何透過複製程序產生人類生命的企圖,以及任何意圖達成此一目的的研究。」不過,宏都拉斯將此建議擴大,提議聯合國聲明「禁止所有形式的複製人行為。」
日本修正「請求揭露匿名網路霸凌者個人資料」之程序網際社群服務的普及,如Face Book、Instagram、Twitter或網路論壇,將人與人之間的社群連結從實體拓展到虛擬,社群網路的蓬勃發展充分展現言論自由,人人皆以匿名方式藏身於社群網路的保護傘下盡情抒發己見,但相對也產生層出不窮的網路霸凌事件。 日本於修正《關於特定電子通訊服務業者損害賠償責任限制及使用者資訊揭示法》(特定電気通信役務提供者の損害賠償責任の制限及び発信者情報の開示に関する法律)前,遭受匿名網路霸凌的被害人若想對加害人提起損害賠償訴訟,須同時對社群網路服務業者及網路服務供應業者聲請禁止刪除資料假處分,被害人承擔巨大的程序成本,卻仍須承擔訴訟程序中,社群網路供應商因系統保存時效屆期而自動刪除加害人IP位置資料之風險。 為了遏止頻繁的網路霸凌事件,日本國會已於2021年4月21日表決通過修正《關於特定電子通訊服務業者損害賠償責任限制及使用者資訊揭示法》,將「請求揭露匿名網路霸凌者個人資料」由原本的假處分及通常訴訟程序修正為非訟程序,被害人僅須向法院提出聲請狀,如法院判斷該聲請可特定網路服務供應業者,被害人即可請求社群網路服務業者及網路服務供應業者提供匿名誹謗者(即加害人)的姓名、地址及網路登錄紀錄。另外,為避免IP位置資訊被刪除的風險,法院可於非訟程序進行中,先命社群網路服務業者禁止刪除該IP位置資訊,大幅推進被害人程序利益之保障。
因應使用「生成式AI(Generative AI)」工具的營業秘密管理強化建議2024年7月1日,美國實務界律師撰文針對使用生成式AI(Generative AI)工具可能導致的營業秘密外洩風險提出營業秘密保護管理的強化建議,其表示有研究指出約56%的工作者已經嘗試將生成式AI工具用於工作中,而員工輸入該工具的資訊中約有11%可能包含公司具有競爭力的敏感性資訊或客戶的敏感資訊,以Chat GPT為例,原始碼(Source Code)可能是第二多被提供給Chat GPT的機密資訊類型。系爭機密資訊可能被生成式AI工具提供者(AI Provider)用於訓練生成式AI模型等,進而導致洩漏;或生成式AI工具提供者可能會監控和存取公司輸入之資訊以檢查是否有不當使用,此時營業秘密可能在人工審查階段洩漏。 該篇文章提到,以法律要件而論,生成式AI有產生營業秘密之可能,因為營業秘密與著作權和專利不同之處在於「發明者不必是人類」;因此,由生成式 AI 工具協助產出的內容可能被視為營業秘密,其範圍可能包括:公司的內部 AI 平台、基礎的訓練算法和模型、輸入參數和輸出結果等。惟基於目前實務上尚未有相關案例,故生成式AI輸出結果在法律上受保護的範圍與條件仍需待後續的判例來加以明確。 實務專家提出,即使訴訟上尚未明確,企業仍可透過事前的管理措施來保護或避免營業秘密洩露,以下綜整成「人員」與「技術」兩個面向分述之: 一、人員面: 1.員工(教育訓練、合約) 在員工管理上,建議透過教育訓練使員工了解到營業秘密之定義及保護措施,並告知向生成式AI工具提供敏感資訊的風險與潛在後果;培訓後,亦可進一步限制能夠使用AI工具的員工範圍,如只有經過培訓及授權之員工才能夠存取這些AI工具。 在合約方面,建議公司可與員工簽訂或更新保密契約,納入使用生成式AI的指導方針,例如:明確規定禁止向生成式AI工具輸入公司營業秘密、客戶數據、財務信息、未公開的產品計劃等機密資訊;亦可增加相關限制或聲明條款,如「在生成式AI工具中揭露之資訊只屬於公司」、「限制公司資訊僅能存儲於公司的私有雲上」等條款。 2.生成式AI工具提供者(合約) 針對外部管理時,公司亦可透過「終端使用者授權合約(End User License Agreement,簡稱EULA)」來限制生成式AI工具提供者對於公司在該工具上「輸入內容」之使用,如輸入內容不可以被用於訓練基礎模型,或者該訓練之模型只能用在資訊提供的公司。 二、技術方面: 建議公司購買或開發自有的生成式AI工具,並將一切使用行為限縮在公司的私有雲或私有伺服器中;或透過加密、防火牆或多種編碼指令(Programmed)來避免揭露特定類型的資訊或限制上傳文件的大小或類型,防止機密資訊被誤輸入,其舉出三星公司(Samsung)公司為例,三星已限制使用Chat GPT的用戶的上傳容量為1024位元組(Bytes),以防止輸入大型文件。 綜上所述,實務界對於使用生成式AI工具可能的營業秘密風險,相對於尚未可知的訴訟攻防,律師更推薦企業透過訴訟前積極的管理來避免風險。本文建議企業可將前述建議之作法融入資策會科法所創意智財中心於2023年發布「營業秘密保護管理規範」中,換言之,企業可透過「營業秘密保護管理規範」十個單元(包括從最高管理階層角色開始的整體規劃建議、營業秘密範圍確定、營業秘密使用行為管理、員工管理、網路與環境設備管理、外部活動管理,甚至是後端的爭議處理機制,如何監督與改善等)的PDCA管理循環建立基礎的營業秘密管理,更可以透過上述建議的做法(對單元5.使用管理、單元6.1保密約定、單元6.4教育訓練、單元7.網路與環境設備管理等單元)加強針對生成式AI工具之管理。 本文同步刊登於TIPS網站(https://www.tips.org.tw)