美國商品期貨交易委員會(Commodity Futures Trading Commission, CFTC)於2024年10月15日發布《自願碳額度衍生性金融商品上市指引》(Commission Guidance Regarding the Listing of Voluntary Carbon Credit Derivative Contracts),闡述交易所上架自願碳額度衍生性金融商品時所應考量之因素,旨在推動仍處於發展階段的自願碳額度商品之標準化,以強化其透明度與流動性。本指引認為,決定進行上市交易前應先行考量下列因素:
1.透明度(Transparency):契約應公開碳額度方案(crediting program)與所認證減量專案活動之相關資訊。
2.外加性(Additionality):若無碳額度構成誘因,則其所代表之碳減量或移除將無從發生。
3.永久性與應對反轉風險(Permanence and Accounting for the Risk of Reversal):碳額度方案所核發之碳額度若遭撤銷,應具有充足緩衝儲備(buffer reserve)以替換品質相當之碳額度。
4.穩健量化(Robust Quantification):量化方法應穩健、保守且透明,以確保核發碳額度數量準確反映減排或移除量。
5.治理(Governance):碳額度方案應具備公開治理框架以建構獨立性、透明度及問責制度。
6.追蹤與避免重複計算(Tracking and No Double Counting):碳額度方案應追蹤碳額度之核發、轉讓及註銷,並確保已註銷額度不會再被使用而導致減排或移除量重複計算。
7.第三方確證及查證(Third-Party Validation and Verification):契約應明確記載第三方確證及查證程序,以確保碳額度實物交割符合品質要求,並與自願碳市場最新標準一致。
由於電子商務的應用往往涉及一些技術層面概念,當法律的適用遇到這些應用與解釋時,不免提高法院在裁判上的困難度。 以美國馬里蘭州上訴法院在五月初進行的 Beyond Systems Inc. v. Realtime Gaming LLC. 案件言詞辯論為例,由於該案涉及網路與法院管轄權之爭議,審理該案的數位法官均坦承對於律師在言詞辯論過程中所提到的一些技術名詞解釋感到理解上有些困難。該案是由位在馬里蘭州的原告指控位於喬治亞州發展互動軟體的公司,聲稱在 2003 年底自被告收到 240 封垃圾電子郵件,違反該州的反垃圾郵件法。馬里蘭州的地方法院駁回原告的訴訟,乃因現有證據很難判斷被告與馬里蘭州之間有地源上的關聯性,故該法院對於被告沒有管轄權。在上訴法院的言詞辯論中,原告指稱,從新墨西哥州所寄發的電子郵件內附有被告的網站連結;而被告則表示其並未寄發大量垃圾郵件給原告,此外,光是網站的存在以及在網際網路上提供資訊並不能做為法院主張管轄權的依據。 儘管雙方律師在法庭上互執己見就該案從不同角度進行辯論,但兩邊律師皆表示,要在現階段於法庭上對電子商務及電子通訊提出定義及解釋都不是容易的事,尤其在網際網路這塊領域中,要認清誰是行為主體是難度很高的事。
何謂「企業實證特例制度」?企業實證特例制度規定於日本產業競爭力強化法第8條、第10條、第14條及第15條,在企業或任何事業團體有進行新事業活動(引進新商品或服務之開發或生產、新商品或服務之導入)之需要時,若現行法規上有滯礙難行之處,則可提出創設新規制措施之申請,藉以排除某些法令之限制,使新事業活動得以進行。 企業實證特例制度分為兩階段,首先由欲實施新事業活動者向事業主管機關提出申請,而事業主管機關將會與法規主管機關討論後,在安全性得到確保之情形下,由事業主管機關同意創設新規制措施。第二階段則需提出新事業活動計畫申請核准,經核准後便得在一定期間內於一定地區進行新事業活動。 新事業活動計畫備核准後,事業團體得進行新事業之活動,其需於各事業年度終了後3個月內向事業主管機關提出報告,就新事業活動之進行情形(包含新事業活動目標達成程度、新特例措施施形狀況、法規所要求之安全性目的之確保措施…等事項)為報告。法規主管機關亦會綜合新事業活動之施形狀況、國外相關法制情形以及技術進步等等情形,決定是否進行修法。
美國加州「Asilomar人工智慧原則決議」美國加州議會於2018年9月7日通過Asilomar人工智慧原則決議(23 Asilomar AI Principles, ACR-215),此決議表達加州對於「23條Asilomar人工智慧原則」之支持,以作為產業或學界發展人工智慧、政府制定人工智慧政策之指標,並提供企業開發人工智慧系統時可遵循之原則。依此法案所建立之重要指標如下: (1)於研究原則上,人工智慧之研究應以建立對於人類有利之人工智慧為目標。 (2)於研究資助上,人工智慧之研究資助應著重幾個方向,如:使人工智慧更加健全且可抵抗外界駭客干擾、使人工智慧促進人類福祉同時保留人類價值以及勞動意義、使法律制度可以順應人工智慧之發展。 (3)於科學政策之連結上,人工智慧研究者與政策擬定者間應有具有建設性且健全之資訊交流。 (4)於研究文化上,人工智慧研究者應保持合作、互信、透明之研究文化。 (5)於安全性上,人工智慧研究團隊應避免為了研究競爭而忽略人工智慧應具備之安全性。 (6)人工智慧系統應該於服務期間內皆具備安全性及可檢視性。 (7)人工智慧系統之編寫,應可使外界於其造成社會損失時檢視其出錯原因。 (8)人工智慧系統如應用於司法判斷上,應提供可供專門人員檢視之合理推論過程。 (9)人工智慧所產生之責任,應由設計者以及建造者負擔。 (10)高等人工智慧內在價值觀之設計上,應符合人類社會之價值觀。 (11)高等人工智慧之設計應可與人類之尊嚴、權利、自由以及文化差異相互調和。 (12)對於人工智慧所使用之資料,其人類所有權人享有擷取、更改以及操作之權利。 (13)人工智慧之應用不該限制人類「客觀事實上」或「主觀知覺上」之自由。 (14)人工智慧之技術應盡力滿足越多人之利益。 (15)人工智慧之經濟利益,應為整體人類所合理共享。 (16)人類對於人工智慧之內在目標應享有最終設定權限。 (17)高等人工智慧所帶來或賦予之權力,對於人類社會之基本價值觀應絕對尊重。 (18)人工智慧所產生之自動化武器之軍備競賽應被禁止。 (19)政策上對於人工智慧外來之發展程度,不應預設立場。 (20)高等人工智慧系統之研發,由於對於人類歷史社會將造成重大影響,應予以絕對慎重考量。 (21)人工智慧之運用上,應衡量其潛在風險以及可以對於社會所帶來之利益。 (22)人工智慧可不斷自我循環改善,而可快速增進運作品質,其安全標準應予以嚴格設定。 (23)對於超人工智慧或強人工智慧,應僅為全體人類福祉而發展、設計,不應僅為符合特定國家、組織而設計。
淺析企業如何善用無形資產獲取商業利基