日本內閣官房下設之未來投資會議於2017年6月9日,以構築「Society5.0」為目標,提出《未來投資戰略2017》,宣佈未來施政將以「延長健康壽命」、「實現移動革命」、「供應鍊的次世代化」、「街道活性化」以及「Fintech」等5大領域為中心。
在實現移動革命部份,《未來投資戰略2017》計畫藉由無人自動駕駛移動服務、小型無人機和自動駕駛船隻等,提高物流效率與實現高度化移動服務,以減少交通事故和解決人力不足等問題。
與此同時,日本亦將自2018年起展開卡車列隊行駛公路實驗,以期在2022年前達成卡車列隊行駛商業化之目標;此外,亦將於2018年起在山間地帶展開以小型無人機運輸貨物之實驗。除上述自動駕駛技術之實驗外,日本亦將朝向擴大駕駛資料收集和利用,主導制定資料傳輸規格等方向努力,並計畫於2017年底擬定高度自動駕駛系統商業化相關法規及制度之整備大綱。
本文為「經濟部產業技術司科技專案成果」
澳洲政府於2014年推動電信(監察及查閱)法修正(資料保存)案(Telecommunications (Interception and Access)Amendment (Data Retention) Bill 2014),增訂資料保存規範,其目的在於打擊重大犯罪、恐怖主義、國際組織犯罪等,其措施為要求國內網路服務商須保留用戶之通訊資料,並保存期間至少2年,對此,當時情報及保安事務議會聯合委員會(下稱委員會)於評估該修正案時,卻發現一項爭議問題,即民事訴訟當事人亦得查閱通訊資料,但資料保存行為之正當性乃立基於維護國家安全,實與民事訴訟制度意義相悖,故委員會提出應排除民事訴訟領域得以查閱通訊資料之建議。 澳洲政府對於委員會所提出之建議採取全盤接受之態度,進而重新修訂2014年電信(監察及查閱)法修正(資料保存)案,且併同修正刪除1997年電信法令第280條,有關得以民事訴訟傳票或命令,向網路服務商查閱其所保存之通訊資料;至於網路服務商之通訊資料保存義務方面,仍須依1979年電信(監察及查閱)法為之。前述修正於2017年4月13日生效。 然而,澳洲政府方面時至今日卻有態度轉變之趨勢,起因於通訊部長與檢察總長於2016年12月20日公告,其認為資料保存措施對於特定類型之民事訴訟並非沒有實益,如:維護智慧財產權事件、家庭事件(如:離婚)或勞工權益事件(如:公司起訴勞工)等,故應視類型或個案情形予以開放查閱;因此,主管機關提出三項問題向社會大眾徵求意見:1、民事訴訟當事人在何種情形下可查閱通訊資料;2、倘若民事訴訟當事人不得查閱通訊資料者,對於民事訴訟會產生何種影響;3、是否有特定之民事訴訟類型,是排除1997年電信法第280條(1B)不適用。 實際觀察澳洲政府所推動之該項公告,在其國內爭議相當大,不僅該項公告已臨近前述修正生效日,且開放民事訴訟當事人得以查閱通訊資料之正當性疑慮仍未解除,甚且,亦與近期國際上國家安全與人民隱私權保障間之衝突日趨顯著,如:英國之調查權力法案(Investigatory Powers Act. 2016)不無關聯,因此,澳洲政府是否願意在社會輿論反對聲浪中,仍維持該項公告修正意向,值得後續觀察。
美國科羅拉多州通過《人工智慧消費者保護法》2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。
歐盟發布與食品接觸的容器材料安全評估規則歐盟食品安全局(European Food Safety Authority, EFSA)於2009年5月29日發布歐盟第450/2009號規則(Regulation EC No. 450/2009),內容為評估與食品接觸的包裝容器之「活性材料」(active material)或「智慧型材料」(intelligence material),其活性與智慧型功能物質之使用安全性。此號規則規定了進行活性或智慧型材料物質的安全評估相關的行政管理,及申請所需提出的科技數據與資訊內容。 歐盟第450/2009號規則是一項落實第1935/2004號規則中,有關食品安全的具體規則。第450/2009號規則要求食品容器中的「活性材料」與「智慧型材料」,必須經過EFSA的安全評估測試。 歐盟於2004年10月通過第1935/2004號規則(Regulation EC No. 1935/2004),首次公佈活性材料與智慧型材料的定義。「活性材料」係指為增加食物保存期限或維持及改善情況,食品容器材料會自動釋放某些物質在食品中以延長期限。「智慧型材料」則指能顯示食物狀況或在包裝上顯示出周圍環境狀態,例如在食品包裝上,結合溫度顯示材料,指出裝運過程中的溫度狀態。 而第450/2009號規則,則是進一步落實規範。在安全評估測試中,EFSA對於申請者提出的容器材料物質,進行風險測試後,將給予申請者得以使用的物質清單。若有食品容器材料的物質經測試後發現,其活性或智慧型功能的物質,與食品容器材料中的其他物質產生交互作用,EFSA可能將限制使用此類物質於食物容器材料中,以確保容器材料之安全性。
OTT服務所涉網路中立性與著作權議題之比較分析-美國與歐盟之新近法制及對我國之建議