2014年3月24日歐盟執委會提出一項具體行動計畫,發起歐洲政策有關有機農業的檢討諮詢,希冀幫助有機農民、生產者和零售商適應新的政策,投入有機農業技術研發,並規劃於2015年召開食品業與研發人員溝通會議,進而加入專家意見、利益相關者與地區公眾共同集徵意見。其中,為了幫助有機農民、生產者和零售商調整至所建議的政策規劃方向,歐洲執委會將計畫推動一項有機生產行動計劃,以推動農村發展和歐盟農業政策措施,鼓勵有機農業以加強歐盟有機生產與研究創新項目之間的聯繫,並鼓勵使用有機食品。具體行動計畫重點為:
一、增加歐盟有機生產者的競爭力:
二、為鞏固消費者信任度,計畫執行將對有機產品及其農業技術研發展開控管措施;
三、加強歐盟統一有機產品的標示規格。
另外,歐盟執委會亦通過有機產品生產和標籤規範修法草案(The Legislative Proposals for a New Regulation on Organic Production and Labelling of Organic Products),將擬制定更完善的有機產品法規,以杜絕假冒及混充。
本文為「經濟部產業技術司科技專案成果」
「新車輛及系統技術」(Neue Fahrzeug- und Systemtechnologien)補助計畫係德國為確保汽車產業能夠在未來保持其技術領先地位所規劃的研究補助方案,該計畫從2015年6月起為期4年,聚焦車輛本體設計及車聯網技術解決方案;2018年11月,有感數位化變革所帶來的壓力,以及聯網自動駕駛顛覆未來交通面貌的潛力,德國聯邦經濟及能源部(BMWi)決定將前述計畫延長4年至2022年12月31日,並追加補助金額至每年6000萬歐元,促進聯網自動化駕駛及創新車輛領域的相關研發,具體鎖定的項目包含:(1)創新感測技術與傳動系統(2)高精度定位技術(3)迅速、安全、可靠的通信協作技術(4)創新資料融合及資料處理程序(5)人車互動技術(6)配套的測試程序與認證(7)電動車搭載自動駕駛功能的具體解決方案(8)透過輕量化提升能源效率技術(9)空氣動力學優化技術(10)創新動力推進技術。聯邦政府希望藉由第二輪的「新車輛及系統技術」補助計畫,協助歷來引以為傲的汽車工業克服資通訊技術革新、氣候保護趨嚴及能源效率要求所帶來的挑戰,全力避免此一德國重要經濟命脈淪為數位化浪潮下的犧牲者。
德國提出「對外貿易條例」修正草案德國聯邦經濟與能源部(Bundesministerium für Wirtschaft und Energie,BMWi)在2017年7月提出「對外貿易條例」(Außenwirtschaftsverordnung)修正草案,以規定基於德國的公共政策安全或基本安全利益,對於外國人(或企業)收購國內公司,在必要時得予以禁止或增加強制條件。 如果交易完成後(一)歐盟之外的收購方將直接或間接持有目標公司25%以上的表決權以及(二)出於公共秩序或安全原因有必要採取上述措施,聯邦經濟與能源部可禁止對德國公司的收購交易。 該法修正草案亦進一步規定,聯邦經濟能源部將在本法律框架下對於涉及以下(技術)領域相關企業併購案之合約談判的各方進行審查程序,以確保國家實質安全利益: 部分能源電力領域,例如:電廠控制技術、電網工程技術、電廠系統或系統操作的控制技術(供電、供氣、燃油或集中供熱等)。 部分用水領域,例如:用水控制、調配或自動化技術(飲用水供應或污水處理設施)。 訊息技術和電信軟體領域,例如:語音和數據傳輸、數據儲存系統及處理系統)。 金融和保險部門、其運營的軟體或現金系統。 涉及醫療保健軟體部門或醫院管理訊息系統、處方藥和實驗室訊息系統的運行等領域部分。 涉及運輸和交通領域內的控制系統、工廠或設施的運行、航空運輸、乘客和貨物系統、鐵路運輸、海運和內河運輸、公路運輸、公共交通或後勤物流等領域。
因應使用「生成式AI(Generative AI)」工具的營業秘密管理強化建議2024年7月1日,美國實務界律師撰文針對使用生成式AI(Generative AI)工具可能導致的營業秘密外洩風險提出營業秘密保護管理的強化建議,其表示有研究指出約56%的工作者已經嘗試將生成式AI工具用於工作中,而員工輸入該工具的資訊中約有11%可能包含公司具有競爭力的敏感性資訊或客戶的敏感資訊,以Chat GPT為例,原始碼(Source Code)可能是第二多被提供給Chat GPT的機密資訊類型。系爭機密資訊可能被生成式AI工具提供者(AI Provider)用於訓練生成式AI模型等,進而導致洩漏;或生成式AI工具提供者可能會監控和存取公司輸入之資訊以檢查是否有不當使用,此時營業秘密可能在人工審查階段洩漏。 該篇文章提到,以法律要件而論,生成式AI有產生營業秘密之可能,因為營業秘密與著作權和專利不同之處在於「發明者不必是人類」;因此,由生成式 AI 工具協助產出的內容可能被視為營業秘密,其範圍可能包括:公司的內部 AI 平台、基礎的訓練算法和模型、輸入參數和輸出結果等。惟基於目前實務上尚未有相關案例,故生成式AI輸出結果在法律上受保護的範圍與條件仍需待後續的判例來加以明確。 實務專家提出,即使訴訟上尚未明確,企業仍可透過事前的管理措施來保護或避免營業秘密洩露,以下綜整成「人員」與「技術」兩個面向分述之: 一、人員面: 1.員工(教育訓練、合約) 在員工管理上,建議透過教育訓練使員工了解到營業秘密之定義及保護措施,並告知向生成式AI工具提供敏感資訊的風險與潛在後果;培訓後,亦可進一步限制能夠使用AI工具的員工範圍,如只有經過培訓及授權之員工才能夠存取這些AI工具。 在合約方面,建議公司可與員工簽訂或更新保密契約,納入使用生成式AI的指導方針,例如:明確規定禁止向生成式AI工具輸入公司營業秘密、客戶數據、財務信息、未公開的產品計劃等機密資訊;亦可增加相關限制或聲明條款,如「在生成式AI工具中揭露之資訊只屬於公司」、「限制公司資訊僅能存儲於公司的私有雲上」等條款。 2.生成式AI工具提供者(合約) 針對外部管理時,公司亦可透過「終端使用者授權合約(End User License Agreement,簡稱EULA)」來限制生成式AI工具提供者對於公司在該工具上「輸入內容」之使用,如輸入內容不可以被用於訓練基礎模型,或者該訓練之模型只能用在資訊提供的公司。 二、技術方面: 建議公司購買或開發自有的生成式AI工具,並將一切使用行為限縮在公司的私有雲或私有伺服器中;或透過加密、防火牆或多種編碼指令(Programmed)來避免揭露特定類型的資訊或限制上傳文件的大小或類型,防止機密資訊被誤輸入,其舉出三星公司(Samsung)公司為例,三星已限制使用Chat GPT的用戶的上傳容量為1024位元組(Bytes),以防止輸入大型文件。 綜上所述,實務界對於使用生成式AI工具可能的營業秘密風險,相對於尚未可知的訴訟攻防,律師更推薦企業透過訴訟前積極的管理來避免風險。本文建議企業可將前述建議之作法融入資策會科法所創意智財中心於2023年發布「營業秘密保護管理規範」中,換言之,企業可透過「營業秘密保護管理規範」十個單元(包括從最高管理階層角色開始的整體規劃建議、營業秘密範圍確定、營業秘密使用行為管理、員工管理、網路與環境設備管理、外部活動管理,甚至是後端的爭議處理機制,如何監督與改善等)的PDCA管理循環建立基礎的營業秘密管理,更可以透過上述建議的做法(對單元5.使用管理、單元6.1保密約定、單元6.4教育訓練、單元7.網路與環境設備管理等單元)加強針對生成式AI工具之管理。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
何謂「CRADAs」?CRADAs係研發合作契約(Cooperative Research and Development Agreements)之縮寫,為美國國家衛生研究院(National Institute of Health,NIH)與業界和學術界進行科學技術研究發展產學研合作時所簽訂之契約。基於美國國家衛生研究院投入相關領域技術發展之機關設置目的,其所屬之科學家們可以利用本身的科研資源,與業界或學術界共同合作促進保健藥品和原型(prototype)開發與產品進一步的商業化量產。此外,業界也可利用本身私部門的研發力量,介接在國家層級最先進的技術研究合作。 研發合作契約的目的是專為使政府設施、政府補助研發成果之智慧財產權,透過與私部門之產學研合作提供合作互動,以促進科學技術知識之發展轉化為具有市場價值之商業化用途。配合契約之簽署,針對研發合作之權利義務,美國國家衛生研究院另設置有科技發展合作中心(Technology Development Coordinator,TDC),作為研發合作早期階段進行磋商與諮詢之專業機構,以幫助瞭解和研擬適當內容的研發合作契約,並順利依法獲得相關主管機關之核准。