全國能源會議於六月二十日登場,面對京都議定書生效壓力,新舊工廠未來究竟應如何減量,備受企業高度關切,經濟部已擬出政策規劃,將自二○○七年開始推動既設工廠溫室氣體減量措施,至二○一五年減量一○%(二千年為減量基準年)。 工業部門溫室氣體排放量占全國排放總量五五%,但占全國 GDP 比例逐漸減少,工業局計畫在全國能源會議中,提出多項溫室氣體減量措施。 為建立產業減量機制,工業局規劃出短、中、長期三階段減量計畫外,並提出攸關溫室氣體查核機制的能源效率計算模式,藉由會議尋求共識後,逐步落實。 據瞭解,能源效率計算機制因各國規劃採取的措施不同而所有差異,有國家採用每人耗能量為計算基準,也有以生產產品所需耗能量計算,或是每創造單位國內生產毛額所需耗用的能源計算(即能源密集度)。 工業局認為,以能源密集度做為我國工業查核指標,可顯示能源消費與該產業的邊際效應變化趨勢,有助於落實工業部門減量策略的執行,因此建議我國未來在產業溫室氣體排放查核機制上,以能源密集度為查核指標。 至於,在溫室氣體減量機制上,工業局規劃我國自二○○七年時推動既設工廠實施溫室氣體減量措施,並至二○一五年時達到溫室氣體排放密集度降低一○%的目標,而其減量的基準年為二千年;在新設廠方面,則以全球一○%標竿能源效率製程的排放密集度擬訂排放標準加以審議。
由AOL LLC and PLATFORM-A, INC. v. ADVERTISE.COM, INC. 案看網域名稱與商標名稱爭議2009年10月19日,美國線上公司AOL LLC and Platform-A, Inc. (American Online, 簡稱AOL)再次於美國聯邦加州中區地方法院 (US California Central Federal District Court)向一家提供美國線上行銷廣告的公司- ADVERTISE.COM公司,提出商標侵權訴訟。 本案原告- AOL早於2009年8月17日即向美國東維吉尼亞地方法院提出商標侵權訴訟,主張ADVERTISE.COM公司所使用advertise.com之網域名稱,除侵害AOL已註冊的Advertising.com,包含通用文字- advertising.com及設計過A之圖形,及申請中的AD.COM商標權外,也違反了不公平競爭法及維吉尼亞商事法。唯,10月初,東維吉尼亞地方法院法官提出有利於ADVERTISE.COM公司之意見,認為AOL企圖以其所註冊之商標- (A)dvertising.com,來阻止其他競爭公司在網路世界使用任何有關advertise文字的作法,係壟斷網路上所有線上廣告行銷市場;故,AOL被迫於10月將本件訴訟案轉向美國聯邦加州中區地方法院提出。 目前尚無對本案的意見,將待本案之後續發展,才能暸解商標權人所註冊的圖形商標中,若包含經設計的圖案及通用的文字時,是否就取得圖形當中通用文字的專用權,並可向其他競爭者主張,任何使用所註冊的商標的一部分,包含網域名稱中的文字,也是商標侵害的一種型態;如此,可能將導致擴張商標權的保障範圍。
英國財政部公告公眾諮詢結果回應,因效益不足決定停止推動綠色分類標準英國財政部(HM Treasury)於2025年7月15日回應有關綠色分類標準(green taxanomy)實效性之公眾諮詢結果並發布評估結論。本諮詢於2024年11月啟動,旨在評估綠色分類標準能否有效達成「引導資金投入淨零轉型」及「預防漂綠行為(greenwashing)」之兩大目標。 以下說明利害關係人回饋意見重點內容: (1)引導資金投入淨零轉型 金融機構受訪者多認為分類標準並非引導資金流向之關鍵政策工具,僅能作為投資考量之其中一項參考依據,而對最終決策影響有限;並認為就特定產業制定去碳路線圖,同時闡明未來投資監理法規、補助獎勵計畫、稅制變革等,始為有效引導淨零轉型投資之政策措施。 (2)預防漂綠行為 跨國企業受訪者擔憂英國建立自身分類體系將導致國際標準更加零碎,同項經濟活動於不同司法管轄區可能被歸類為不同屬性,反而增添漂綠風險;並認為既有政策規範足以應對漂綠問題,如「競爭與市場管理局」(Competition Markets Authority, CMA)與「廣告標準管理局」(Advertising Standards Authority, ASA)為確保綠色聲明正確性所發布之相關指引等。 綜上所述,英國政府於審酌相關意見後,決定不再繼續推動綠色分類標準。於資源有限下,政府將專注於落實產業界認為對於加速淨零轉型投資具更高優先性與影響力之政策,同時持續評估是否需採取更多措施以預防漂綠行為。
因應使用「生成式AI(Generative AI)」工具的營業秘密管理強化建議2024年7月1日,美國實務界律師撰文針對使用生成式AI(Generative AI)工具可能導致的營業秘密外洩風險提出營業秘密保護管理的強化建議,其表示有研究指出約56%的工作者已經嘗試將生成式AI工具用於工作中,而員工輸入該工具的資訊中約有11%可能包含公司具有競爭力的敏感性資訊或客戶的敏感資訊,以Chat GPT為例,原始碼(Source Code)可能是第二多被提供給Chat GPT的機密資訊類型。系爭機密資訊可能被生成式AI工具提供者(AI Provider)用於訓練生成式AI模型等,進而導致洩漏;或生成式AI工具提供者可能會監控和存取公司輸入之資訊以檢查是否有不當使用,此時營業秘密可能在人工審查階段洩漏。 該篇文章提到,以法律要件而論,生成式AI有產生營業秘密之可能,因為營業秘密與著作權和專利不同之處在於「發明者不必是人類」;因此,由生成式 AI 工具協助產出的內容可能被視為營業秘密,其範圍可能包括:公司的內部 AI 平台、基礎的訓練算法和模型、輸入參數和輸出結果等。惟基於目前實務上尚未有相關案例,故生成式AI輸出結果在法律上受保護的範圍與條件仍需待後續的判例來加以明確。 實務專家提出,即使訴訟上尚未明確,企業仍可透過事前的管理措施來保護或避免營業秘密洩露,以下綜整成「人員」與「技術」兩個面向分述之: 一、人員面: 1.員工(教育訓練、合約) 在員工管理上,建議透過教育訓練使員工了解到營業秘密之定義及保護措施,並告知向生成式AI工具提供敏感資訊的風險與潛在後果;培訓後,亦可進一步限制能夠使用AI工具的員工範圍,如只有經過培訓及授權之員工才能夠存取這些AI工具。 在合約方面,建議公司可與員工簽訂或更新保密契約,納入使用生成式AI的指導方針,例如:明確規定禁止向生成式AI工具輸入公司營業秘密、客戶數據、財務信息、未公開的產品計劃等機密資訊;亦可增加相關限制或聲明條款,如「在生成式AI工具中揭露之資訊只屬於公司」、「限制公司資訊僅能存儲於公司的私有雲上」等條款。 2.生成式AI工具提供者(合約) 針對外部管理時,公司亦可透過「終端使用者授權合約(End User License Agreement,簡稱EULA)」來限制生成式AI工具提供者對於公司在該工具上「輸入內容」之使用,如輸入內容不可以被用於訓練基礎模型,或者該訓練之模型只能用在資訊提供的公司。 二、技術方面: 建議公司購買或開發自有的生成式AI工具,並將一切使用行為限縮在公司的私有雲或私有伺服器中;或透過加密、防火牆或多種編碼指令(Programmed)來避免揭露特定類型的資訊或限制上傳文件的大小或類型,防止機密資訊被誤輸入,其舉出三星公司(Samsung)公司為例,三星已限制使用Chat GPT的用戶的上傳容量為1024位元組(Bytes),以防止輸入大型文件。 綜上所述,實務界對於使用生成式AI工具可能的營業秘密風險,相對於尚未可知的訴訟攻防,律師更推薦企業透過訴訟前積極的管理來避免風險。本文建議企業可將前述建議之作法融入資策會科法所創意智財中心於2023年發布「營業秘密保護管理規範」中,換言之,企業可透過「營業秘密保護管理規範」十個單元(包括從最高管理階層角色開始的整體規劃建議、營業秘密範圍確定、營業秘密使用行為管理、員工管理、網路與環境設備管理、外部活動管理,甚至是後端的爭議處理機制,如何監督與改善等)的PDCA管理循環建立基礎的營業秘密管理,更可以透過上述建議的做法(對單元5.使用管理、單元6.1保密約定、單元6.4教育訓練、單元7.網路與環境設備管理等單元)加強針對生成式AI工具之管理。 本文同步刊登於TIPS網站(https://www.tips.org.tw)