瑞士洛桑管理學院(International Institute for Management Development, IMD)於2025年6月17日發布《2025年IMD世界競爭力年報》(IMD World Competitiveness Yearbook),針對全球69個國家與地區,從「經濟表現」、「政府效能」、「企業效能」及「基礎建設」四大面向進行綜合評比,瑞士、新加坡與香港分列前三,展現其制度穩定性與政策應變能力的優勢。 排名第一的瑞士,擁有強健的制度架構,且其「政府效能」與「基礎建設」表現卓越,然瑞士在「經濟表現」與「企業效能」表現略有下滑,主要與公共採購制度的透明度相關,當地企業反映,公共部門合約對外國投標者開放程度不足,限制市場競爭並影響外資參與。 新加坡「經濟表現」亮眼,使其整體競爭力維持在第二名,然因企業外移嚴重,其「企業效能」由去年的第二名滑落至第八,對未來競爭力構成威脅。 香港由第五名升至第三,四大面向皆有明顯進展,顯示其持續改善投資環境;且香港在企業效能方面表現出色,有效強化其作為全球金融中心的地位。 我國排名第六,較去年上升兩名,展現整體競爭力持續提升。四大面向表現均衡,尤以「經濟表現」與「企業效能」成績亮眼,顯示我國出口動能穩定,企業具備良好轉型能力與國際競爭力,科技產業持續發揮關鍵影響力。「政府效能」維持穩定,財政與稅制制度具備競爭優勢,對營商環境有正面助益。惟在「基礎建設」與社會面向方面,仍面臨人口結構變遷、能源轉型與永續發展等挑戰,需持續強化相關制度與政策配套,以確保長期發展動能。 總體而言,競爭力除經濟與治理外,亦受社會及供應鏈變動影響。未來各國應持續強化治理與創新能力;兼顧社會包容性與產業永續發展,以維持長期競爭力。
美國EPA計劃創建三大生質能源研究中心美國能源局(EPA)宣布,將創建三個生質能源研究中心(bioenergy centers),以研發將植物轉化為燃料的技術方法。此舉乃是布希總統作出美國在未來十年內將降低20%的石油用量之政策宣布後,第一個採取具體配套行動的聯邦政府機關。 生質能源研究中心設立的宗旨是希望在未來五年內能夠以先進技術,成功開發生質能源的產品上市。根據EPA的對外公告資料,三大生質能源研究中心將以公司組織的形式運作,每一個研究中心總投入資本將高達1億2千5百萬美元,三大研究中心分別是位在田納西州Oak Ridge、威斯康辛州的Madison以及加州Berkeley附近,這些區域原本就是重要的研究重鎮,匯聚許多的大學、國家實驗室以及私人企業,形成產業聚落,預計三大生質能源研究中心將自2009年9月1日起的預算年度開始運作。 EPA希望藉由研究中心的聚落效應,集中資源協助這些研究中心從自然界中破壞木質素(lignin)的微生物出發,找出植物的確切細胞膜質(cellulose)之所在。細胞膜質或稱纖維素,是轉化成為乙醇、液態燃料等能源的重要來源物質,因此這些生物運轉機制的瞭解與掌握,乃是開發生物能源技術的基礎。 值得注意的是,各國致力於發展生物燃料以替代汽油的政策,已經使得某些兼具多種用途的作物價格持續攀升,此可由國際期貨市場價格獲得印證。為避免生物燃料的發展反而造成食用作物的搶奪大戰,影響作物市場價格,研究中心也將致力於尋找可以製造較易處理的木質素的新作物種類。
美國科羅拉多州通過《人工智慧消費者保護法》2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。