美國能源效率標準的制定,是依據「能源政策管理法」(The Energy Policy and Conservation Act, EPCA)之規定,授權美國能源部針對設備產品制訂能源效率標準;後因「2007年能源獨立與安全法」(The Energy Independence and Security Act (EI SA) of 2007)修正EPCA之部分內容,要求能源部秘書長(Secretary of Energy)檢視是否需修正相關設備產品之能源效率標準後,再進行修正,同時並應將待機(standby mode)及關機(off mode)之能源耗用標準納入測試程序中。
基於此,能源部於2012年5月,針對住宅洗衣機及洗碗機,公布新的能源效率標準,訂立洗衣機及洗碗機產品的最低能源標準,並分別自2015年及2013年開始施行。此亦為美國總統歐巴馬「all-of-the-above」能源政策的重要部分,透過能源效率標準的制訂,以合理的方式逐步減少家庭的支出並同時減少能源消費。
目前美國家庭洗衣機及洗碗機的用電量約占住宅用電量的3%,用水量則占室內用水的20%。根據新的標準,前置式洗衣機(front-loading clothes washers)將可節省15%的電力消費以及35%的水費,上置式(top-loading washers)洗衣機更可節省33%的電力使用及19%的用水量。洗碗機則可節省約15%的電力及20%的用水。
自2009年起至今,已有約40種產品訂有能源效率標準,預計至2030年,總共可節省約3500億美元的帳單花費。這些標準的制訂,是透過能源部的「能源效率與再生能源」(Energy Efficiency and Renewable Energy (EERE) Program)計畫提供技術面的相關建議,並與製造商、消費者團體及環保團體等的共同協商,達成一致的共識,希望提供消費者更多的選擇並減少對製造者的衝擊。
紐西蘭人工智慧論壇(AI Forum)協會成立於2017年,為非營利組織,是紐西蘭政府的重要智庫單位。該協會的AI法律、社會和倫理工作組於2020年3月4日發表了紐西蘭第一份《紐西蘭可信賴的AI指導原則》, 此指導原則目的在提供簡潔有力的人工智慧參考點,以幫助大眾建立對紐西蘭人工智慧的開發和使用的信任。此份AI指導原則對政府具有重要的參考價值。 《紐西蘭可信賴的AI指導原則》,內容摘要如下: 一、公平和正義 (一)適用紐西蘭及其他相關管轄地包含科克群島、紐埃、托克勞、南極羅斯屬地法律; (二)須保護紐西蘭國內法及國際法所規範的人權; (三)須保障《懷唐伊條約》中毛利人的權利; (四)民主價值觀包含選舉的過程和在知情的情況下進行公眾辯論; (五)平等和公正的原則,要求人工智慧系統不會對個人或特定群體造成不公正地損害、排斥、削弱權力或歧視。 二、可靠性、安全性和私密性 AI利益相關者須確保人工智慧系統及資料的可靠、準確及安全性,並在人工智慧系統的整個生命週期中,保護個人隱私以及持續的識別和管控潛在風險。 三、透明度 人工智慧系統的運作應是透明的、可追溯的、並在一定的程度上具可解釋性,在面對責問時能夠被解釋且經得起質疑。 四、人類的監督和責任 AI利益相關者,應該對人工智慧系統及其產出進行適當的監督。 在利益相關者確定適當的問責制度和責任之前,不應使用會對個人或群體造成傷害的技術。 五、福利 AI利益相關者應在適當的情況下設計、開發和使用人工智慧系統,盡可能促進紐西蘭人民和環境的福祉,像是健康、教育、就業、可持續性、多樣性、包容性以及對《懷唐伊條約》獨特價值的認可。 此份AI指引較大的特色有兩點,第一,紐西蘭人工智慧論壇協會的成員組成,其中女性成員比例超過半數。第二,在其指導原則中第一點的「公平和正義」及第五點「福利」中,都特別提到須遵守《懷唐伊條約》以確保毛利人的權益。在這樣的基礎下,能更期待紐西蘭在發展AI技術的過程,能夠更切實的做到公平正義、無歧視。
美國聯邦航空總署對外公布「無人機運行執法方針」近年來隨著科技進步,市面上無人飛行載具(Unmanned Aerial Vehicles, UAS,簡稱無人機)產品與相關應用蓬勃興起,為規範相關運行秩序,美國聯邦航空總署(the Federal Aviation Administration, FAA)於2015年1月8日公布了「無人機運行執法方針」(Law Enforcement Guidance for suspected unauthorized UAS Operations),並呼應美國眾議院所曾表達關切,建議應儘速公布美國無人機立法監管架構,以避免許多相關研發技術公司出走海外的不利發展。 FAA該執法方針,先指出實務上,目前以FAA為實際執法單位所面臨的困難,並徵募各州地方警力協助,以進行實際執法行動。由於FAA經常無法立即趕到並處理無人機事件發生地點,然而透過各州地方警力,對於攔阻未經授權或不安全的無人機活動,具有較佳的嚇阻、偵測、立即調查,以及採取適當執法行動的優勢。 因此,FAA執法方針指示州地方警力,應於未經授權的無人機活動事件發生處,採取以下措施:1. 認明並面詢目擊者;2. 鑑別操作可疑無人機活動者;3. 錄下其活動影像並繪製無人機使用之位置與情況;4. 辨識該區域限制航空範圍;5. 立即通知FAA;6. 蒐集證據。 目前美國有關無人機相關規範,僅有現代化及改革法(Modernization and Reform Act)第333條下,批准無人機具有豁免權之14項適用領域,如閉集錄影(closed-set filming)、空中調查工作、監控建築物地點、調查有關離岸鑽油平台、具農業目的等作業項目,並涵蓋相關具體應遵循之規範;所以美國後續亟待制訂更多相關遵守規範,以利產業界遵循,FAA預計於2015年底公布55磅以下無人機的規章制度,並受國會要求將於9月將無人機監管規章整合至美國領空管理系統(National Airspace System),相關規範內容待持續追蹤觀察。
精簡專利審查:加拿大專利法修正案即將生效因應加拿大-美國-墨西哥協定(Canada-United States-Mexico Agreement, CUSMA)中關於專利期間調整及精簡專利審查程序,加拿大政府對加拿大專利法進行重大修改,新法於2022年10月3日生效,其主要修正重點如下: 1.初步審查報告後之繼續審查要求 如專利申請人欲於3份審查意見報告做成後申請繼續審查(Request for Continues Examination),需支付816加幣之費用(小型企業之費用為408加幣)並可額外獲得最多2份審查意見,如專利仍未核准,申請人需另外再申請繼續審查。 2.超過20項專利請求項之超額費用 專利範圍中多於20項之專利請求項,每多1項專利請求項將被要求額外支付100加幣之超額費用(但小型企業僅需支付40加幣之超額費用),該費用將於以下2個情形產生: (1)當提出審查時,申請案中有超過20項之專利請求項; (2)當支付授予專利的最終費用時,專利請求項在審查過程中超過20項。 3.附條件之專利核准通知 一旦專利申請已接近核准階段,僅剩下次要的手續問題時,加拿大專利局可核發附條件之核准,使申請人修正該問題並支付最終費用以獲取專利。 加拿大政府於2021年7月出版的法規影響聲明(Regulatory Impact Analysis Statement)闡述該法修正理由,並對加拿大專利局無法於合理時間內完成專利審查表示擔憂,於2020年至2021年,加拿大專利審查至授予專利平均時間為31個月,且於本修正案前,對於專利局在授予專利或放棄專利前之審查報告數量未有限制,且無論花費的資源多寡,所有專利之審查費均相同。 該法規影響聲明亦提到加拿大專利申請案包含平均多於其他國家的專利請求項,導致專利審查效率低下,並解釋政府不鼓勵專利申請案包含不必要、過多的專利請求項,確保更快地給予專利,並預計本修正案施行後將減少專利申請量並提高專利品質。 另有論者指出,此修正案可能導致專利申請成本提高,使申請人於加拿大申請專利之意願降低,並認為加拿大專利制度尚待解決的問題在於雙重專利制度(double patenting regime)及專利適格性(subject matter eligibility),本法施行後的實務發展值得持續關注。 「本文同步刊登於TIPS網站(https://www.tips.org.tw)」
歐盟提出人工智慧法律調和規則草案歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。 歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。 本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。 AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。