2011年7月29日美國聯邦巡迴上訴法院針對Myriad Genetics公司之單離去氧核糖核酸(isolated DNA)專利無效上訴案作出判決,認定人體基因具有可專利性。
本案緣起於Myriad Genetics公司利用單離DNA BRCA1及BRCA2兩項基因,發展出一套乳癌風險檢測技術,並成功取得7項專利。未料2009年時,美國公民自由聯盟(American Civil Liberties Union,ACLU)及美國公共專利基金會(Public Patent Foundation,PUBPAT)以「授予單離DNA專利權係違反專利法第101條規定」為由,向紐約南區聯邦地方法院提起確認專利無效之訴,並獲致勝訴判決後,全案便上訴至聯邦巡迴法院。
美國專利法第101條(35 U.S.C §101)雖規定:「任何人發明或發現新而有用的方法、設備、製品或物之組合,或新而有用的改良,皆可依本法所定條件取得專利。」但標的若屬自然產物(product of nature)者,則不應授予專利。因此,本案關鍵問題在於:單離DNA是否屬於自然產物?
針對此一問題,巡迴法院以1887年聯邦最高法院於Hartranft v. Wiegmann案中所闡明的「人為介入(human intervention)是否已賦予發明物與自然產物明顯不同的特質」原則為判斷標準,認定單離DNA雖取自於原生DNA(native DNA),但其經化學處理後可釋放出特定分子,已與人體內之原生DNA有顯著不同,故具有可專利性。此外,法院更指出,美國專利局(The US Patent and Trademark Office,USPTO)自80年代迄今已釋出40,000件以上與DNA分子相關之專利,其中有20%為人類基因,此種長年行政慣例即便有誤,亦應由國會加以變更,而非法院。
本案受矚目之處,在於Myriad公司上訴時,美國司法部即透過法庭之友建議書(friend of the court briefs),向巡迴法院表明其否認人類基因具有可專利性的立場,因此本案判決結果等同於對司法部見解之否決。美國生技業者則認為單離基因專利(isolated gene patent)是生技產業的基石,此判決結果符合專利局一貫的專利政策,而此政策正是過去催生美國生技產業的推手;惟外界預料本案極可能再上訴至聯邦最高法院,屆時將對美國生技產業造成何種影響,值得持續觀察。
本文為「經濟部產業技術司科技專案成果」
2024年7月1日,美國實務界律師撰文針對使用生成式AI(Generative AI)工具可能導致的營業秘密外洩風險提出營業秘密保護管理的強化建議,其表示有研究指出約56%的工作者已經嘗試將生成式AI工具用於工作中,而員工輸入該工具的資訊中約有11%可能包含公司具有競爭力的敏感性資訊或客戶的敏感資訊,以Chat GPT為例,原始碼(Source Code)可能是第二多被提供給Chat GPT的機密資訊類型。系爭機密資訊可能被生成式AI工具提供者(AI Provider)用於訓練生成式AI模型等,進而導致洩漏;或生成式AI工具提供者可能會監控和存取公司輸入之資訊以檢查是否有不當使用,此時營業秘密可能在人工審查階段洩漏。 該篇文章提到,以法律要件而論,生成式AI有產生營業秘密之可能,因為營業秘密與著作權和專利不同之處在於「發明者不必是人類」;因此,由生成式 AI 工具協助產出的內容可能被視為營業秘密,其範圍可能包括:公司的內部 AI 平台、基礎的訓練算法和模型、輸入參數和輸出結果等。惟基於目前實務上尚未有相關案例,故生成式AI輸出結果在法律上受保護的範圍與條件仍需待後續的判例來加以明確。 實務專家提出,即使訴訟上尚未明確,企業仍可透過事前的管理措施來保護或避免營業秘密洩露,以下綜整成「人員」與「技術」兩個面向分述之: 一、人員面: 1.員工(教育訓練、合約) 在員工管理上,建議透過教育訓練使員工了解到營業秘密之定義及保護措施,並告知向生成式AI工具提供敏感資訊的風險與潛在後果;培訓後,亦可進一步限制能夠使用AI工具的員工範圍,如只有經過培訓及授權之員工才能夠存取這些AI工具。 在合約方面,建議公司可與員工簽訂或更新保密契約,納入使用生成式AI的指導方針,例如:明確規定禁止向生成式AI工具輸入公司營業秘密、客戶數據、財務信息、未公開的產品計劃等機密資訊;亦可增加相關限制或聲明條款,如「在生成式AI工具中揭露之資訊只屬於公司」、「限制公司資訊僅能存儲於公司的私有雲上」等條款。 2.生成式AI工具提供者(合約) 針對外部管理時,公司亦可透過「終端使用者授權合約(End User License Agreement,簡稱EULA)」來限制生成式AI工具提供者對於公司在該工具上「輸入內容」之使用,如輸入內容不可以被用於訓練基礎模型,或者該訓練之模型只能用在資訊提供的公司。 二、技術方面: 建議公司購買或開發自有的生成式AI工具,並將一切使用行為限縮在公司的私有雲或私有伺服器中;或透過加密、防火牆或多種編碼指令(Programmed)來避免揭露特定類型的資訊或限制上傳文件的大小或類型,防止機密資訊被誤輸入,其舉出三星公司(Samsung)公司為例,三星已限制使用Chat GPT的用戶的上傳容量為1024位元組(Bytes),以防止輸入大型文件。 綜上所述,實務界對於使用生成式AI工具可能的營業秘密風險,相對於尚未可知的訴訟攻防,律師更推薦企業透過訴訟前積極的管理來避免風險。本文建議企業可將前述建議之作法融入資策會科法所創意智財中心於2023年發布「營業秘密保護管理規範」中,換言之,企業可透過「營業秘密保護管理規範」十個單元(包括從最高管理階層角色開始的整體規劃建議、營業秘密範圍確定、營業秘密使用行為管理、員工管理、網路與環境設備管理、外部活動管理,甚至是後端的爭議處理機制,如何監督與改善等)的PDCA管理循環建立基礎的營業秘密管理,更可以透過上述建議的做法(對單元5.使用管理、單元6.1保密約定、單元6.4教育訓練、單元7.網路與環境設備管理等單元)加強針對生成式AI工具之管理。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
華盛頓橄欖球隊(D.C. NFL)新商標命名充滿變數華盛頓橄欖球隊(Washington Football Team,簡稱D.C. NFL)原名為華盛頓紅皮隊(Washington Redskins),其名稱”Redskins”因具有種族歧視含意,一直以來都充滿爭議,雖然在漫長的法律程序中,成功的維護了他們的”Redskins”商標,然最終仍不敵輿論的壓力,在2020年7月放棄了這個已使用87年之久的商標。 如何為球隊重新命名一個品牌名稱以替代那悠久且著名的原品牌名稱,且新名稱要能夠讓球迷具有認同感,對球隊來說本就不是件容易的事,何況還需要考慮到9月即將開始的NFL(The National Football League)賽季,這更名時程看來就顯得更加緊迫。除了考量到NFL為全球性的賽事,商標命名時所需考量的市場變成全球市場而使這任務更顯艱鉅之外,現在球隊將因為其球迷的行為,使得其新品牌的命名橫添變數。 自1980年來即是球隊粉絲的菲利浦•馬丁•麥考利(Philip Martin McCaulay),已經留意到球隊更名的可能性,近年將可能的名稱先申請商標,除了華盛頓勇士隊(Washington Warriors)外,還包含華盛頓紅狼(Washington Red Wolves)、華盛頓紀念碑(Washington Monuments)、華盛頓熊貓(Washington Pandas)等多達40個商標,而且從美國專利商標局(United States Patent and Trademark Office)資料,麥考利顯然不是唯一一位這樣做的人,究竟是要取得他人的授權,或是經過漫長的命名流程,面對9月就要到來的賽季,已經沒有太多時間留給球隊考慮。 隨著時間變遷,商標法中妨害公序良俗的認定亦會改變,因此品牌長期經營亦須時時檢視該商標在當下的涵義,及早變更因應的方向。 「本文同步刊登於TIPS網站(https://www.tips.org.tw )」
日本政府怎樣對公部門管制DeepSeek?日本政府怎樣對公部門管制DeepSeek? 資訊工業策進會科技法律研究所 2025年07月07日 2025年2月3日,日本個人情報保護委員會(Personal Information Protection Commission,簡稱PPC)發布新聞稿指出[1],DeepSeek所蒐集的資料,將會儲存在中國的伺服器裡,且為中國《國家情報法》的適用對象[2]。這可能將導致個人資料遭到中國政府調用或未經授權的存取。作為中國開發的生成式AI,DeepSeek雖以優異的文本能力迅速崛起,卻也引發資安疑慮。 身處地緣政治敏感區的日本對此高度警覺,成為率先提出警告的國家之一。台灣與日本面臨相似風險,因此日本的應對措施值得借鏡。本文將從PPC新聞稿出發,探討日本如何規範公部門使用DeepSeek。 壹、事件摘要 DeepSeek作為中國快速崛起之生成式AI服務,其使用範圍已快速在全球蔓延。然而,日本PPC發現該公司所公布之隱私政策,內容說明其所蒐集之資料將存儲於中國伺服器內,並依據中國《國家情報法》之適用範圍可能遭到中國政府調用或未經授權之存取。 日本PPC因而於2025年2月3日發布新聞稿,隨後日本數位廳於2月6日發函給各中央省廳,強調在尚未完成風險評估與資安審查之前,政府機關不應以任何形式將敏感資訊輸入DeepSeek,並建議所有業務使用應先諮詢內閣資安中心(内閣サイバーセキュリティセンター,NISC)與數位廳(デジタル庁)意見,才能判定可否導入該類工具[3]。數位大臣平將明亦在記者會中強調:「即使不是處理非機密資料,各機關也應充分考量風險,判斷是否可以使用。」(要機密情報を扱わない場合も、各省庁等でリスクを十分踏まえ、利用の可否を判断する)[4]。 本次事件成為日本對於生成式AI工具採取行政限制措施的首次案例,也引發公私部門對資料主權與跨境平台風險的新一輪討論。 貳、重點說明 一、日本對於人工智慧的治理模式 日本在人工智慧治理方面採取的是所謂的「軟法」(soft law)策略,也就是不依賴單一、強制性的法律來規範,而是以彈性、分散的方式,根據AI的實際應用場景與潛在風險,由相關機關分別負責,或透過部門之間協作因應。因此,針對DeepSeek的管理行動也不是由某一個政府部門單獨推動,而是透過跨部會協作完成的綜合性管控,例如: (一)PPC的警示性通知:PPC公開說明DeepSeek儲存架構與中國法規交錯風險,提醒政府機關與公務人員謹慎使用,避免洩漏資料。 (二)數位廳的行政指引:2025年2月6日,日本數位廳針對生成式AI的業務應用發布通知,明列三項原則:禁止涉密資料輸入、限制使用未明確審查之外部生成工具、導入前應諮詢資安機構。 (三)政策溝通與政治聲明:平將明大臣在記者會上多次強調DeepSeek雖未明列於法條中禁用,但其高風險屬性應視同「潛在危害工具」,需列入高敏感度審查項目。 二、日本的漸進式預防原則 對於DeepSeek的管制措施並未升高至法律層級,日本政府亦沒有一概禁止DeepSeek的使用,而是交由各機關獨自判斷[5]。這反映出了日本在AI治理上的「漸進式預防原則」:先以行政指引建構紅線,再視實際風險與民間回饋考慮是否立法禁用。這樣的作法既保留彈性,又讓官僚系統有所依循,避免「先開放、後收緊」所帶來的信任危機。 三、日本跟循國際趨勢 隨著生成式AI技術迅速普及,其影響已不再侷限於產業應用與商業創新,而是逐漸牽動國家資安、個資保護以及國際政治秩序。特別是生成式AI在資料存取、模型訓練來源及跨境資料流通上的高度不透明,使其成為國家安全與數位主權的新興挑戰。在這樣的背景下,各國對生成式AI工具的風險管理,也從原先聚焦於產業自律與技術規範,提升至涉及國安與外交戰略層面。 日本所採取的標準與國際趨勢相仿。例如韓國行政安全部與教育部也在同時宣布限制DeepSeek使用,歐盟、美國、澳洲等國亦有不同程度的封鎖、審查或政策勸導。日本雖然和美國皆採取「軟法」(soft law)的治理策略,然而,相較於美國以技術封鎖為主,日本因其地緣政治的考量,對於中國的生成式AI採取明確防範的態度,這一點與韓國近期禁止政府機構與學校使用中國AI工具、澳洲政府全面禁止政府設備安裝特定中國應用程式類似。 參、事件評析 這次日本政府對於DeepSeek的應對措施,反映出科技治理中的「資料主權問題」(data sovereignty):即一個國家是否有能力控制、保存與使用其管轄範圍內所生產的資料。尤其在跨境資料傳輸的背景下,一個國家是否能保障其資料不被外國企業或政府擅自使用、存取或監控,是資料主權的核心問題。 生成式AI不同於傳統AI,其運作依賴大規模訓練資料與即時伺服器連接,因此資料在輸入的瞬間可能已被收錄、轉存甚至交付第三方。日本因而對生成式AI建立「安全門檻」,要求跨境工具若未經審核,即不得進入政府資料處理流程。這樣的應對策略預示了未來國際數位政治的發展趨勢:生成式AI不只是科技商品,它已成為跨國治理與地緣競爭的核心工具。 中國通過的《國家情報法》賦予政府調閱私人企業資料的權力,使得中國境內所開發的生成式AI,儼然成為一種資訊戰略利器。若中國政府藉由DeepSeek滲透他國公部門,這將對國家安全構成潛在威脅。在此背景下,日本對公部門使用DeepSeek的管制,可被解讀為一種「數位防衛行為」,象徵著日本在數位主權議題上的前哨部署。 值得注意的是,日本在處理DeepSeek事件時,採取了「不立法限制、但公開警示」的方式來應對科技風險。此舉既避免激烈封鎖引發爭議,又對於資料的運用設下邊界。由於法令規範之制定曠日費時,為避免立法前可能產生之風險,日本先以軟性之限制與推廣手段以防止危害擴大。 台灣雖與日本同處地緣政治的敏感地帶,資料主權議題對社會影響深遠,為使我國可在尚未有立法規範之狀態下,參考日本所採之行政命令內控與公開說明外宣雙向並行之策略,對台灣或許是一種可行的借鏡模式。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]個人情報保護委員会,DeepSeekに関する情報提供,https://www.ppc.go.jp/news/careful_information/250203_alert_deepseek/ (最後瀏覽日:2025/05/06)。 [2]《中华人民共和国国家情报法》第7条第1项:「任何组织和公民都应当依法支持、协助和配合国家情报工作,保守所知悉的国家情报工作秘密。」 [3]デジタル社会推進会議幹事会事務局,DeepSeek等の生成AIの業務利用に関する注意喚起(事務連絡),https://www.digital.go.jp/assets/contents/node/basic_page/field_ref_resources/d2a5bbd2-ae8f-450c-adaa-33979181d26a/e7bfeba7/20250206_councils_social-promotion-executive_outline_01.pdf (最後瀏覽日:2025/05/06)。 [4]デジタル庁,平大臣記者会見(令和7年2月7日),https://www.digital.go.jp/speech/minister-250207-01 (最後瀏覽日:2025/05/06)。 [5]Plus Web3 media,日本政府、ディープシークを一律禁止せず 「各機関が可否を判断する」,https://plus-web3.com/media/500ds/?utm_source=chatgpt.com (最後瀏覽日:2025/05/06)。
英國推動農場資料認證計畫,首重資料生成、保護與維護管理英國Farm Data Principles組織(下稱FDP,前身為英國農場資料委員會(The British Farm Data Council)),在2024年2月26日英國農業科學技術跨黨派小組(All Party Parliamentary Group for Science & Technology in Agriculture)於西敏寺辦理的會議,正式宣告農場資料認證計畫,FDP強調因目前欠缺資料治理原則,導致缺乏信任等資料使用障礙,並指出若未事先約定資料如何使用等,將致無法明確保護資料。截至目前為止,已經有7個組織取得完全(Full)或臨時(Provisional)認證。 農場資料認證計畫包含四大核心要求,分別為: 1.「您的資料是您的資料(YOUR DATA IS YOUR DATA)」:如強調應由資料生成者擁有及管控資料,且未經其許可,不得接觸、儲存、共享或銷售資料,以及應明確說明參與資料處理的對象等。 2.「通過認證的組織清楚資料共享的價值和好處(CERTIFIED ORGANISATIONS ARE CLEAR ABOUT THE VALUE AND BENEFIT OF DATA SHARING)」:如應針對資料使用範圍及方式,提供明確說明,以及必須解釋如何整合資料及其衍生的價值等。 3.「通過認證的組織須確保資料安全(CERTIFIED ORGANISATIONS KEEP YOUR DATA SAFE)」:如為維護資料安全,應採取適當的資料安全標準及規劃資料外洩處理流程等。 4.「通過認證的組織須努力使資料變得簡單(CERTIFIED ORGANISATIONS STRIVE TO MAKE DATA EASY)」:如提供資料相關教育訓練,以及確保組織能夠回應請求或投訴等。 為因應農業資料於研發過程中的資料應用風險,資策會科法所創意智財中心協助農業部研擬「智慧農業科技研發資料源頭查檢說明手冊」,並於2024年3月14日正式發布,相關手冊所附之資料管理查檢表,可協助智農科技研發者針對資料取得、使用及管理,事先進行整體性規劃,並與不同的資料提供者及合作對象就資料權利義務約定清楚。其中針對資料管理,更依照資料生成、保護及維護的標準化作業流程,設計各階段相應的管控要項,確保農業資料持續處於有效管理的狀態,以降低資料潛在風險,促進資料流通應用。 本文同步刊登於TIPS網站(https://www.tips.org.tw)