為鼓勵綠色科技產業發展,美國商業部專利商標局(The U.S. Commerce Department's Patent and Trademark Office , 簡稱USPTO)宣布綠色科技與溫室氣體減量領航方案,USPTO表示,對於綠色科技與溫室氣體減量的專利申請案件,將給予加速審查(accelerate the examination)的優惠。美國商業部長Gary Locke表示,美國的競爭力繫於研發創新能力,協助綠色產業儘速得到專利保護將可以刺激是項產業發展。
除了經濟的誘因,行政上的便利也經常是政府用以推動政策的輔助工具,USPTO希望透過這項新措施,幫助相關產業的研發創新。而在研發創新上,廠商的生產方式或是產品如能更快速取得專利的保護,對於該產業的發展應有正面的效益。USPTO在2009年12月提出這項方案後,在2010年5月21日再次宣布將原方案所正面表列的專利類別(U.S. patent classifications, USPCs)刪除,亦即進一步擴大可申請案件的範圍。
美國在發展綠色科技的腳步上一直未曾停歇,除原有透過綠色公共採購(Green Public Procurement, GPP)來擴大此項產業市場,歐巴馬政府上台後更在2009年10月發布的13514號行政命令(Executive Order)要求聯邦機關訂定2020年以前溫室氣體排放減量的目標,實施策略上,政府機關採購目標以95%符合ENERGY STAR® 、FEMP、EPEAT等規格或認證產品優先。綠色公共採購提供的是市場面的誘因,此番USPTO提供的專利審查過程的加速,無異是給予綠色產業再一劑強心針。USPTO該方案執行期間以1年內3千件申請案為上限,此項措施如能有效刺激產業發展,值得加以觀察。
本文為「經濟部產業技術司科技專案成果」
2024年7月1日,美國實務界律師撰文針對使用生成式AI(Generative AI)工具可能導致的營業秘密外洩風險提出營業秘密保護管理的強化建議,其表示有研究指出約56%的工作者已經嘗試將生成式AI工具用於工作中,而員工輸入該工具的資訊中約有11%可能包含公司具有競爭力的敏感性資訊或客戶的敏感資訊,以Chat GPT為例,原始碼(Source Code)可能是第二多被提供給Chat GPT的機密資訊類型。系爭機密資訊可能被生成式AI工具提供者(AI Provider)用於訓練生成式AI模型等,進而導致洩漏;或生成式AI工具提供者可能會監控和存取公司輸入之資訊以檢查是否有不當使用,此時營業秘密可能在人工審查階段洩漏。 該篇文章提到,以法律要件而論,生成式AI有產生營業秘密之可能,因為營業秘密與著作權和專利不同之處在於「發明者不必是人類」;因此,由生成式 AI 工具協助產出的內容可能被視為營業秘密,其範圍可能包括:公司的內部 AI 平台、基礎的訓練算法和模型、輸入參數和輸出結果等。惟基於目前實務上尚未有相關案例,故生成式AI輸出結果在法律上受保護的範圍與條件仍需待後續的判例來加以明確。 實務專家提出,即使訴訟上尚未明確,企業仍可透過事前的管理措施來保護或避免營業秘密洩露,以下綜整成「人員」與「技術」兩個面向分述之: 一、人員面: 1.員工(教育訓練、合約) 在員工管理上,建議透過教育訓練使員工了解到營業秘密之定義及保護措施,並告知向生成式AI工具提供敏感資訊的風險與潛在後果;培訓後,亦可進一步限制能夠使用AI工具的員工範圍,如只有經過培訓及授權之員工才能夠存取這些AI工具。 在合約方面,建議公司可與員工簽訂或更新保密契約,納入使用生成式AI的指導方針,例如:明確規定禁止向生成式AI工具輸入公司營業秘密、客戶數據、財務信息、未公開的產品計劃等機密資訊;亦可增加相關限制或聲明條款,如「在生成式AI工具中揭露之資訊只屬於公司」、「限制公司資訊僅能存儲於公司的私有雲上」等條款。 2.生成式AI工具提供者(合約) 針對外部管理時,公司亦可透過「終端使用者授權合約(End User License Agreement,簡稱EULA)」來限制生成式AI工具提供者對於公司在該工具上「輸入內容」之使用,如輸入內容不可以被用於訓練基礎模型,或者該訓練之模型只能用在資訊提供的公司。 二、技術方面: 建議公司購買或開發自有的生成式AI工具,並將一切使用行為限縮在公司的私有雲或私有伺服器中;或透過加密、防火牆或多種編碼指令(Programmed)來避免揭露特定類型的資訊或限制上傳文件的大小或類型,防止機密資訊被誤輸入,其舉出三星公司(Samsung)公司為例,三星已限制使用Chat GPT的用戶的上傳容量為1024位元組(Bytes),以防止輸入大型文件。 綜上所述,實務界對於使用生成式AI工具可能的營業秘密風險,相對於尚未可知的訴訟攻防,律師更推薦企業透過訴訟前積極的管理來避免風險。本文建議企業可將前述建議之作法融入資策會科法所創意智財中心於2023年發布「營業秘密保護管理規範」中,換言之,企業可透過「營業秘密保護管理規範」十個單元(包括從最高管理階層角色開始的整體規劃建議、營業秘密範圍確定、營業秘密使用行為管理、員工管理、網路與環境設備管理、外部活動管理,甚至是後端的爭議處理機制,如何監督與改善等)的PDCA管理循環建立基礎的營業秘密管理,更可以透過上述建議的做法(對單元5.使用管理、單元6.1保密約定、單元6.4教育訓練、單元7.網路與環境設備管理等單元)加強針對生成式AI工具之管理。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
法國政府考慮強制業者公布使用奈米材料之相關資訊茲因回應2008年針對環境議題所召開之國家諮詢會議,並考量整體環境變遷快速,有待解決之相關問題與過往相較已有所不同,法國政府於2009年1月7日公布新修正之環保法令草案,力求與時俱進;其新環境法規草案著重以下主題:建築與都市計畫、交通、能源與氣候、生物多樣性、風險、健康與廢棄物處理。 其中值得注意者,係針對可能導致危害環境或人體健康的奈米粒子材料,於新法中加以規範。依該新環保法草案第73條,除非個案內容有損國家安全因而為特例之外,現行製造、輸入與使用奈米粒子材料於產品之業者,必須就該奈米材料之性質、數量與使用方式加以揭露,使公眾周知;此外,於主管機關的要求下,業者應評估並呈報該奈米材料之暴露程度與所潛藏之風險。 之所以將奈米粒子納入規範當中,係參考「化學物質登記、評估、授權和管制法」(Registration, Evaluation, Authorisation and Restriction of Chemical substances,REACH),基於永續發展之目標,因而於產品製造及銷售的過程中,賦予製造商與進口商特定之責任與義務;亦即業者必須以負責任之態度製造、進口或使用化學物質,進而取得該化學物質之相關資訊,使之透明化,以確保人體健康和環境免於受到負面影響,促成風險管理措施之順利運行。 該等觀念彰顯了本次法國環境法規修改之特色,其六大主題之規範更需要諸多政府部門的通力合作;再者,法國於積極發展奈米科技的同時,以客觀之態度審視其優缺點,試圖掌握奈米粒子材料之特性,作為管理潛在風險之判斷基準。該法案於2009年2月10日送至議會待表決,後續發展仍值得注意。
以『江蘇科技改革30條』解析中國大陸科研經費改革制度中國大陸近年致力發展其國內技術研究產業,但在基礎研究經費申請制度上,長期存在一些結構問題,如在科研資助、實施和成果傳播三個階段。故自2017年起,中國大陸陸續修正關於科研經費制度,以使科技研究人員得以順利進行科研項目。截至目前,依中國大陸國發〔2018〕25號文為基準,江蘇省推出《關於深化科技體制機制改革推動高品質發展若干政策》(下簡稱『江蘇科技改革30條』),並出台完整的實用手冊 。 此次江蘇科技改革30條,明確落實中央對科研經費鬆綁及對科研結果獎勵與容錯的改革措施。在科研經費可直接列支項目的直接預算,如設備費、材料費等,從原本九個項目改合併為五個項目,科目經費支出將不再受比例限制;另在無法直接羅列預算項目的間接預算上,如績效支出等費用則精簡列支項目,提高間接費用核定比例。在科研結果獎勵與容錯改革上,建立原創成果獎勵機制、創新補償機制、援助機制及免責機制。 中國大陸科研經費長期採用嚴格預算制,直接預算需按照法律規範羅列,然間接預算部分常使研究人員因不知如何羅列,而導致研究經費中斷或減少。對於較易失敗的基礎研究上,研究人員則擔心在階段性考核中因錯誤致使研發經費無法取得,進而將錯就錯,謊報研究成果。此次江蘇科技改革30條修正,解決了上述科研經費制度的部分問題,並具體規範了實務上的操作。然各部會間如何解決關於監管經費結餘規範之法律衝突,及科研成果容錯機制之評價,仍待後續觀察。
德國聯邦資訊技術,電信和新媒體協會針對AI及自動決策技術利用提出建議指南德國聯邦資訊技術,電信和新媒體協會於2018年2月6日在更安全的網路研討會中針對利用人工智慧及自動決策技術利用提出建議指南,旨在提升企業數位化與社會責任,並提升消費者權益保護。 德國司法及消費者保護部次長Gerd Billen於會議中指出,無論技術細節和具體應用如何發展,法律和消費者保護政策應確保人工智慧安全性,且不因此受歧視,以及盡可能確保技術利用透明度。而隨著人工智慧的發展,應設法解決使用人工智慧產生的法律問題。 例如,如何在製造商,供應商和消費者之間公平分配責任歸屬問題?在家庭,物流和手術室等領域已有越來越多具備自我學習的機器人被應用,相關權利是否會有所不同?如果機器出現不明原因故障,會發生什麼情況及如何處置?當機器透過在製造時尚未完全預定的環境感官認知做出具體決定時,該自動行為所生效力為何? 本份指南則提出六項建議: 促進企業內部及外部訂定相關準則 提升產品及服務透明度 使用相關技術應為全體利益著想 決策系統的可靠性仍取決資料的準確性。 重視並解決解決機器偏差問題 在特別需要負責的決策過程,應設計成由責任主體保留最終的決策權力,直到AI的控制品質已達到或高於所有參與者水平。