中國大陸能源基金會副主席楊富強日前透露,能源基金會、世界自然基金會與國家財政部正在研討開徵「生態稅」。目前,正在為能源對環境的影響成本進行核算,年內相關草案將出爐。 據中國大陸媒體報道,世界自然基金會氣候變化與能源項目負責人甘霖表示,生態稅主要目的就是為了保護生態環境和自然資源,向所有因其生產和消費而造成外部不經濟的納稅人課徵的稅收。 生態稅涉及所有消費化學能源的行業,讓企業去承擔環境成本,實現生態和資源價值的合理補償。目前,生態稅的標準正在研討中,不同的行業對應不同的稅收標準。這個標準與企業的排放有關。根據企業排放量的多少,制定一個限定的比例,再乘以企業的年生產量。也就是說,「企業污染的越多,承擔的環境成本就會越高。」 甘霖指出,目前綠色能源的環境績效還不能完全轉化為經濟效益,綠色能源單位建設投資高及利用率偏低,造成綠色能源價格較高,從而無法與傳統能源競爭,成為影響綠色能源發展的一個瓶頸。現在運用稅收手段,徵收生態稅,就是要使傳統能源價格升高,從而縮小傳統能源與綠色能源之間的差價,推動全社會積極使用綠色能源。
新創及中小企業如何因應美國之《訴訟透明法案》今年7月,美國國會議員Issa提出了《2024年訴訟透明法案》(H.R. 9922, the Litigation Transparency Act of 2024,下稱《訴訟透明法案》),要求當事人揭露民事訴訟中所取得之金融支援的來源,如商業貸款機構等,以提高訴訟透明度並降低濫訴之情形,惟此提案恐導致美國新創及中小企業更難成功起訴竊取其專屬技術之大企業。 近年來,許多大型科技公司從較小的競爭對手竊取其專屬技術,然而僅有少數案例成功取得賠償金,如:伊利諾州地方法院要求Amazon向軟體公司Kove IO支付5.25億美元的賠償金等。這是由於新創及中小企業縱有證據證明其智慧財產權被盜,在訴訟中多面臨沒有足夠資力與大型科技公司抗衡之窘境,因此往往被迫接受遠低於其所受損失之和解金。透過這種方式,大型科技公司能掌握技術並支付低於取得該技術授權所需之成本,因此被稱之為「有效侵權(efficient infringement)」。 新創及中小企業近期透過與第三方金融資助者協議共享訴訟取得之賠償等方式,降低其進入訴訟程序的經濟門檻,以對抗大型科技公司所採取之「有效侵權」。然而最近一系列案例顯示,中國大陸所支持的第三方金融資助者助長了針對美國企業之智財訴訟,引發了國家安全問題,故立法者為降低營業秘密被外國競爭對手取得之風險、避免無意義之訴訟被廣泛提起,要求當事人揭露其於民事訴訟中所取得之金融支援來源。若《訴訟透明法案》通過,原告所採取之法律策略將可能外洩,而第三方金融資助者亦將受到各方之抨擊,進而導致新創及中小企業在訴訟中更難取得金融支援。 綜上所述,若要降低訴訟之可能性,新創及中小企業須強化其對於專屬技術之保護,從根本減少專屬技術洩露之風險,以避免訴訟發生或進入後端訴訟。有鑑於新創及中小企業與大企業相比,在智財保護觀念上更接近學研單位,且對於營業秘密之管理多未臻完備,因此為確保其能有效落實對營業秘密之管控,建議新創及中小企業可參考智慧局所發布之《學研機構營業秘密管理實作要領》,量身訂作符合自身需求的營業秘密管理制度,並循序完善相應之營業秘密管理措施,以降低專屬技術被竊取的風險。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
人工智慧採購指南草案人工智慧作為一前瞻性技術,運用於公部門,可以降低成本、提高管理品質、節省基層公務人員時間,整體改善政府公共服務。然而AI技術進化以及市場發展過於快速,現有採購類型沒有可以直接適用AI採購的判斷標準範本。因此,英國人工智慧辦公室(Office for Artificial Intelligence)與產官學研各界進行研商後,於2019年9月20日發表人工智慧採購指南草案(Draft Guidelines for AI procurement),作為公部門採購AI產品與服務之準則。該指南旨在加強公部門採購人員能力、協助採購人員評估供應商,讓廠商可以隨之調整其產品和服務內容。 該指南提供採購人員規劃政府AI採購的方向,包含招標、公告、評選、決標到履約。但指南強調無法解決採購AI產品與服務時遇到的所有挑戰。 指南內容簡述如下: 在制定規範時應重視如何清楚闡述面臨到的問題,而非只是說明解決方案; 評估AI帶來的風險時應緊扣公共利益,在招標階段敘明以公共利益為核心,並有可能在招標、評選和決標階段變動評估標準; 在招標文件中確實引用法規和AI相關實務守則; 其他包含將AI產品的生命週期納入招標和履約考慮、為提供AI產品和服務的廠商創造公平競爭環境、需與跨領域的團隊進行採購討論、確保採購流程從一開始就建立資料管理機制等。
日本發布利用AI時的安全威脅、風險調查報告書,呼籲企業留意利用AI服務時可能造成資料外洩之風險日本獨立行政法人情報處理推進機構於2024年7月4日發布利用AI時的安全威脅、風險調查報告書。 隨著生成式AI的登場,日常生活以及執行業務上,利用AI的機會逐漸增加。另一方面,濫用或誤用AI等行為,可能造成網路攻擊、意外事件與資料外洩事件的發生。然而,利用AI時可能的潛在威脅或風險,尚未有充分的對應與討論。 本調查將AI區分為分辨式AI與生成式AI兩種類型,並對任職於企業、組織中的職員實施問卷調查,以掌握企業、組織於利用兩種類型之AI時,對於資料外洩風險的實際考量,並彙整如下: 1、已導入AI服務或預計導入AI服務的受調查者中,有61%的受調查者認為利用分辨式AI時,可能會導致營業秘密等資料外洩。顯示企業、組織已意識到利用分辨式AI可能帶來的資料外洩風險。 2、已導入AI利用或預計導入AI利用的受調查者中,有57%的受調查者認為錯誤利用生成式AI,或誤將資料輸入生成式AI中,有導致資料外洩之可能性。顯示企業、組織已意識到利用生成式AI可能造成之資料外洩風險。 日本調查報告顯示,在已導入AI利用或預計導入AI利用的受調查者中,過半數的受調查者已意識到兩種類型的AI可能造成的資料外洩風險。已導入AI服務,或未來預計導入AI服務之我國企業,如欲強化AI資料的可追溯性、透明性及可驗證性,可參考資策會科法所創意智財中心所發布之重要數位資料治理暨管理制度規範;如欲避免使用AI時導致營業秘密資料外洩,則可參考資策會科法所創意智財中心所發布之營業秘密保護管理規範,以降低AI利用可能導致之營業秘密資料外洩風險。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)