日本內閣官房日本經濟再生總合事務局(内閣官房日本経済再生総合事務局)在2017年6月9日第10次「未來投資會議」中提出未來投資戰略2017報告(未来投資戦略2017~Society 5.0 の実現に向けた改革~),在成長的戰略成果(5)日本第四次產業革命及新經濟的展開中,分別對於機器人實用、物聯網(IOT)、大數據(BIG DATA)、人工智慧(AI)等提出成果及未來計畫。
機器人加速實用化:首先,機器人廣泛利用在商業設施、機場等日常生活空間,於2016年9月羽田機場設置機器人實驗室「Haneda Robotics Lab」,利用機器人改善服務並補充勞動力。有關打掃清潔、協助移動、查詢服務等17種機器人,將進行實證實驗。而路面協助行走型機器人「RT.1」已經完成,於2015年生活協助型機器人之安全性得到國際認證,其後發展之「RT.2」將使用於長期照顧層面。其次,開發農業使用之自動駕駛拖車,並提供工作實際狀況和土壤狀況之電子管理服務。今年6月開始商業化之自動駕駛顯示器,可以監控自動駕駛耕作機器進行自動耕作等。在物流管理方面,於2018年將於山間部等地區進行無人機的包裹遞送,2020年將在都會區全面無人包裹遞送。預計將與日立等相關公司,進行物流管理系統之開發及活用福島機器人測試場域。
本文為「經濟部產業技術司科技專案成果」
英國民用航空局(United Kingdom Civil Aviation Authority, CAA)於2024年12月3日發布「CAA對新興AI驅動自動化的回應」(The CAA's Response to Emerging AI-Enabled Automation)、「航空人工智慧與先進自動化監管策略」(Part A:Strategy for Regulating AI and Advanced Automation in Aerospace)以及「CAA 應用AI策略」(Part B: Strategy for Using AI in the CAA)等三份文件。首先,前者概述CAA對於AI應用於航空領域之總體立場,強調以確保安全、安保、消費者保護及環境永續等前提下,促進AI技術在相關航空領域之創新與應用;其次,「航空人工智慧與先進自動化監管策略」著重說明如何於航空領域監管AI技術之使用,以兼顧推動創新並維持安全性及穩健性;最後,「CAA 應用AI策略」則聚焦於CAA內部使用AI技術提升監管效率與決策能力的策略。 由於AI正迅速成為航空產業之重要技術,其應用範圍包含航空器、機場、地面基礎設施、空域、航太、消費者服務等,具有提高航空安全性、運作效率、環境永續性與消費者體驗之潛力。然而,相關技術風險與監管挑戰亦伴隨而至,仍需新的監管框架應對潛在風險。因此,總體而言CAA以推動AI創新技術、提升航空產業效率與永續性為目標,透過了解技術前景、建立AI通用語言,並以航空領域之五大原則為監管框架之制定核心,建立靈活的AI監管體系,維持最高水準的安全保障。五大原則及案例分述如下: (1) 安全、安保與穩健性(Safety, Security and Robustness),例如:使用AI分析航空器感測器資料進行預測維護,以利提早發現問題。 (2) 透明與可解釋性(Transparency and Explainability),例如:清楚記錄AI系統如何提出空中交通路線建議。 (3) 可質疑性與矯正機制(Contestability and Redress),例如:制定一套明確的流程,以便航空公司查詢並了解AI生成的安全建議。 (4) 公平與偏見(Fairness and Bias),例如:確保自動化旅客篩查安檢系統公平對待所有旅客。 (5) 問責與治理(Accountability and Governance),例如:明確界定AI系統在機場運營中的監管角色與職責。 .Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em}
日本預計2019年10月起於東京、大阪實行智財調解制度根據日本特許廳調查,國際(如韓國,泰國)在處理智財爭議時,往往會傾向採取非訟的方式解決智財爭議,例如透過智財局進行智財調解。日本也預計在2019年10月1日起於東京及大阪兩地的地方法院導入新的智財調解制度,用以快速解決智財(例如專利權,著作權等)相關爭議。 普遍而言智財爭議往往會耗費企業或當事人相當長的時間,且爭議的智財標的在訴訟期間也無法被使用,故日本政府計劃推行新的智財調解制度。新的智財調解制度,除了能降低訴訟成本外,日本政府更迫切想解決的問題是,不希望爭議的智財標的影響企業經營。 在日本智財訴訟是公開,法官在聽過兩造說法後會由法官做單方面的判決,且根據日本最高法院的資料顯示,智財訴訟平均需花費十二點九個月的時間才能結案。有的從訴訟提起到一審宣判就需花費一年又八個月,再到最高法院判決確定還需花費一年又二兩個月。 而日本新推行的智財調解制度計畫將透過視訊的方式,讓當事人與法官進行非公開的對話,並儘量促成兩造達成合意,調解過程最短僅需花費約三個月的時間就能有結果,若調解沒有共識,當事人一樣能進行智財訴訟。智財調解制度除了能有效減少爭議時間外,費用上智財調解申請費也遠低於智財訴訟的申請費。 「本文同步刊登於TIPS網站(https://www.tips.org.tw )」
美國科羅拉多州通過《人工智慧消費者保護法》2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。
美國CAFC透過Abbvie, Inc. v. Kennedy Inst.案確認顯而易見重複專利制度