本文為「經濟部產業技術司科技專案成果」
國際再生能源總署於(International Renewable Energy Agency, IRENA)2022年3月13日發布「能源終端使用部門:綠氫憑證」(Decarbonising End-use Sectors: Green Hydrogen Certification)研究報告,說明綠氫的部屬與使用,以及國家、區域與國際綠氫市場的發展將取決於追蹤制度的建立與接受程度。 太陽能或風電等再生能源將水電解為氫氣與氧氣後,可轉換為氫能,且因產氫過程不排碳,故此類氫能稱為綠氫。為降低溫室氣體排放、解決溫室效應與極端氣候等問題,綠氫與來自綠氫的合成燃料,在追求減少碳排放的能源轉型中扮演關鍵地位。 該報告概述了綠氫憑證制度的技術考量以及創建此類工具所需面臨的挑戰,並對政策決策者提出關鍵建議,旨在建立具備國際認證標準的綠氫追蹤制度——綠氫憑證。 綠氫憑證是指生產設備業者、貿易商及供應商等能源市場參與者,向國際再生能源憑證相關組織或當地政府登記取得其生產過程中所使用的能源來自於綠氫之證明。消費者可以透過該憑證識別綠氫的來源,並可行使相關權利。 為確保綠氫憑證及其追蹤制度達成綠氫行業既定脫碳目標,該報告提出十點建議:(1)明確「綠氫」之定義;(2)建立標準,確保綠氫電力生產來源安全可靠;(3)確保憑證能為消費者及決策者提供足夠資訊;(4)簡化行政程序,減少行政負擔;(5)實施具備成本效益的憑證追蹤制度;(6)建立適當的控制機制避免濫用或缺乏透明度;(7)應考量結合既有制度;(8)避免跨國交易時重複頒發不同國家之憑證(9)利用綠色金融標準鼓勵遵守憑證要求;(10)促進國際合作,建立全球共通之標準與規則。
德國聯邦專利法院認定人工智慧不具專利發明人資格 但特別點出人工智慧在發明之貢獻德國聯邦專利法院在2021年11月中旬對美國發明人Stephen Thaler(後稱Dr. Thaler)所開發之AI系統(DABUS)是否能成為專利發明人作出判決,儘管AI在研發過程中協助發現問題並解決問題,法院仍認為專利發明人必須為自然人,但特別補充說明這項發明確實有得到AI的幫助。 Dr. Thaler及其法律團隊將該發明在各國進行專利申請。盤點各國智財局或法院之考量:美國專利商標局(USPTO)強調發明人應以自然人為由排除這類案件;儘管英國智財局(UKIPO)認同DABUS富有創新,卻否認其為合法發明人,不過認為有必要檢視AI技術帶給現存專利制度的挑戰,並已啟動針對AI發明之法律改革計畫;至於歐洲專利局(EPO)以不符合自然人或實體等資格而核駁這類案件,然而上訴結果將於12月下旬作出判決。 惟澳洲聯邦法院在7月底逆轉做出法律並未禁止以AI為發明人而提出專利申請之判決,這也是繼南非允許AI作為發明人而取得專利權之後的第二個案例。 根據各國智財局、世界智慧財產權組織(WIPO)與法院多將智慧財產係來自於心智創作,卻未定義該心智創作是來自於人類或AI,可預見非人類主體將可被視為發明人並授予智慧財產權。此外,現行智財法律也有重新檢視與定義之必要性,包括釐清AI演算法與AI開發者之角色以重新定義發明人資格或所有權人等議題。
營業秘密與競業禁止-簡評臺灣高等法院台南分院102年度上易字第212號判決 美國科羅拉多州通過《人工智慧消費者保護法》2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。