根據中國大陸國務院於2014年7月2日召開國務院常務會議後的決定,未來大陸地區將在其國家自主創新示範區和自主創新綜合試驗區內,選擇部分中央級事業單位,展開為期一年關於科技成果使用、處置和收益管理的試點工作。 以鼓勵科研創新作為驅動經濟發展的策略,已是最新一屆大陸地區中央領導人施政的重點。早在2007年其政府修訂之《科學技術進步法》,已對申請項目的承擔者(類似我國執行單位或計畫主持人)依法取得發明專利權等知識產權有所規範。然目前大陸地區對於整體科技成果之無形資產的使用權、處置權和收益權等,並無一致性的作法。 惟為加速科技成果移轉(大陸地區稱為「轉化」)和事業化,進一步提升研發創新,中國大陸財政部曾於2011年在北京中關村的國家自主創新示範區,展開中央級事業單位科技成果處置權和收益權的管理改革,簡化800萬以下的科技成果處置流程(註:關於此部分發展趨勢可另參考近期國務院法制辦公室對外公告之「關於《促進科技成果轉化法(修訂草案送審稿)》公開徵求意見通知」等相關內容)。 本次中國大陸國務院常務會議進一步決定,允許更多的試點單位可以採取轉讓、許可、作價入股等方式移轉科技成果,將所得收入全部留歸試點單位自主分配。相信這樣的方式有助於激勵對科技成果創造做出重要貢獻的機構和人員,因本次試點工作為期一年,其具體執行成果將持續觀察、瞭解。
智慧電表的陷阱美國及歐洲都開始引進附加通訊功能的電表(所謂智慧電表)。這一波動向也真正開始影響到日本。日本國內最大家的東京電力公司將於2010年10月開始進行智慧電表的實際驗證研究。 雖然至今只有關西電力公司與九州電力公司有引進智慧電表,但在10年之後,日本大半以上的電表會是智慧電表。 從短期來看,智慧電表就只具有使用電力的遠距抄表跟遠距截斷的功能。但是就只具有這樣的功能是不足以讓眾多目光聚焦的,它所具有的是期待在未來透過電表跟家電機器等所形成的資訊通信網絡。在目前許多企業打算就先透過網路蒐集使用電力的資訊,之後在提供新的附加服務。 這樣的動向不只是發生在電力公司,在瓦斯及自來水業界也正在發生。例如東京瓦斯公司將於2010年度起,開始實驗運作具有無限通訊功能的瓦斯表,快的話在2012年就會正式更換約1000萬台的瓦斯表。東京瓦斯公司還計畫在之後將用於瓦斯表上的通訊系統擴張到自來水表的抄表上。美國企業如IBM公司也積極投入自來水表的「智慧化」。 但是,在實際引進智慧電表時,美國發生了引進智慧電表的住戶的電費急速增加,產生了不少的訴訟,美國德州Oncor電力公司正面對這樣的訴訟,加州的PG&E公司的顧客也正聲請相關的訴訟。 專家們指出一些會影響電費增加的原因,其中就指出因為引進智慧電表使得「正確測量出電力使用量」這也是因為美國至今所使用的電表太過老舊,無法正確的測量出正確的電力使用量,以致用戶都在付出比實際使用量要少的電費。所以在引進智慧電表測量出正確的電力使用量之後,就產生出「電費增加」的錯覺。 現在美國的電力公司主要把智慧電表用於自動抄表上,這只是利用智慧電表的第一步。若在初始階段無法得到消費者的支持,之後要推廣則會更為困難。使用電力的相關資訊在某種意義上可視為是個人資料的其中一種。隱私權的問題等與消費者保護汲汲相關的議題陸續都會出現。 美國眾議員Edward Markey在眾議院提出了電力公司要將智慧電表所測量的電力使用資訊即時提供給消費者,並有保護該資訊隱私權義務化的法案。在技術面上,有關重視資訊安全的通訊型式的討論亦蓬勃發展起來。
美國科羅拉多州通過《人工智慧消費者保護法》2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。