日本內閣官房下設之未來投資會議於2017年6月9日,以構築「Society5.0」為目標,提出《未來投資戰略2017》,宣佈未來施政將以「延長健康壽命」、「實現移動革命」、「供應鍊的次世代化」、「街道活性化」以及「Fintech」等5大領域為中心。
在實現移動革命部份,《未來投資戰略2017》計畫藉由無人自動駕駛移動服務、小型無人機和自動駕駛船隻等,提高物流效率與實現高度化移動服務,以減少交通事故和解決人力不足等問題。
與此同時,日本亦將自2018年起展開卡車列隊行駛公路實驗,以期在2022年前達成卡車列隊行駛商業化之目標;此外,亦將於2018年起在山間地帶展開以小型無人機運輸貨物之實驗。除上述自動駕駛技術之實驗外,日本亦將朝向擴大駕駛資料收集和利用,主導制定資料傳輸規格等方向努力,並計畫於2017年底擬定高度自動駕駛系統商業化相關法規及制度之整備大綱。
本文為「經濟部產業技術司科技專案成果」
美國國防部(Department of Defense)於2020年2月採納由美國國防創新委員會(Defense Innovation Board, DIB)所提出之「人工智慧國防運用倫理準則(AI Principles: Recommendations on the Ethical Use of Artificial Intelligence by the Department of Defense)」,以衡平倫理與人工智慧於國防帶來之增益。 美國國防創新委員會為美國聯邦政府下之獨立委員會,設置目的在於依美國新創科技,提供意見予美國國防部,與美國國防部並無隸屬關係。有鑑於人工智慧之運用範疇日益增廣,美國國防創新委員會遂提出旨揭「人工智慧國防運用倫理準則」,以因應人工智慧於國防之應用所產生之問題。 倫理準則適用於「戰爭或非戰爭用途之人工智慧之設計以及應用」,對於「人工智慧」之定義,倫理準認為人工智慧並無精確之範疇,只要「對於資訊有所處理並旨在達到所賦予任務之資訊系統」,皆為本準則下之人工智慧。倫理準則指出,「人工智慧」與美國國防部3000.09指令下之「自動化武器系統(Autonomous Weapon System)」之定義不同,但有可能重疊,而所謂「自動化武器系統」為「一經人類選擇啟動,即可在無人類監督之情形下,自動針對目標進行鎖定或進行攻擊之自動化武器系統」。 美國國防創新委員會表示,該準則旨在切合美國既有憲法、法律、國際公約之傳統標準下,融入現代化對於人工智慧之要求,如國際公約中之戰爭法(Law of War)即為本準則之傳統標準之一,舉例而言,如人工智慧被裝置於武器中,其設計及應用應符合最小傷亡原則、避免傷及無辜原則等。 除此之外,準則亦包含以下現代化對於人工智慧之要求:(1)人類對於人工智慧系統之設計、應用以及使用應善盡判斷以及注意義務,且人類應該對於人工智慧系統因瑕疵所帶來之傷害負擔最終責任;(2)對於目標之選擇或分類,應維持公平性,且不得有歧視性;(3)對於人工智慧之設計、應用以及使用,應有明確之工程標準以及資料保存程序,此一工程標準以及資料保存程序應為一般具有專業知識之工程人員可據以理解、分析、追蹤問題所在並加以改善;(4)「戰爭或非戰爭用途之人工智慧」應有明確之應用領域,且完善之檢測、維修,應適用於該人工智慧之全部生命週期。
日本通過《減少食品損耗促進法》隨著地球人口增加,糧食問題日益嚴重,而土地資源有限及氣候變遷也影響著產量。除了開源—提升糧食產量之外,如何節流—減少糧食浪費,也成為各國重要課題。日本為因應聯合國永續發展目標(SDGs)中的具體目標12.3:「在2030年之前,達到減少生產供應鏈糧食損失,同時掌握消費端食物浪費流向。」並改善國內食物大量損耗的問題,參議院於2019年5月24日表決通過由跨黨派議員聯盟提出的《減少食品損耗促進法》(食品ロス削減推進法)。有鑑於日本的循環型社會法制體系中,已有以實現食品環保3R(Reduce, Reuse, Recycle)為目的之《食品循環利用法》(食品リサイクル法),《減少食品損耗促進法》要求中央及地方政府在依既有相關法規,實施食品廢棄物減量時,也應考量本法之目的和內容,適當地推行措施。 《減少食品損耗促進法》將「減少食品損耗」定義為:「防止仍能食用的食品不被廢棄之社會性措施。」並定義「食品」 係除《醫藥品、醫療機器等法》第2條第1項所稱之「藥品」、同條第2項所稱之「醫藥部外品」及同條第9項所稱之「再生醫療等製品」以外之飲品及食物。 依《減少食品損耗促進法》之規定,未來內閣府將設立名為「減少食品損耗促進會議」(食品ロス削減推進会議)之專責機關,制定減少食品損耗的基本方針,並審議相關重要事項及推動政策之實施,而地方政府也應努力制定具體的相關促進計畫。本法也鼓勵企業與中央和地方政府合作,積極減少食物廢棄物,同時希望消費者自主採取行動。「減少食品損耗」作為從食品的生產到消費各階段的重要目標, 將成為新的全民運動。
歐盟提出設立歐洲技術研究院(European Institute of Technology, EIT)之規劃草案歐盟在最新一期的研發剛要計畫( The Seventh Framework Proposal )中,除了持續以計畫補助方式推動歐盟的研發能力外,最值得注意者乃有關設立「歐洲技術研究院」( European Institute of Technology, EIT )的規劃。最近歐盟執委會已經提出 EIT 設立的法源基礎草案,根據目前規劃, EIT 旨在吸引產學研各界菁英加入,肩負打破產學研界間之藩籬之使命,未來 EIT 除為產學研合作之參考模式外,並將扮演歐洲地區創新、研究與高等教育之菁英領航者( a flagship for excellence ),期使歐盟得更有效率地面對全球化及知識經濟社會所帶來之挑戰。 就組織面而言, EIT 係整合由上而下及由下而上兩種組織結構: EIT 本身具有獨立之法人格,其內部除設置管理局( Governing Board , GB )監督組織運作外,並有約六十位常設之科學及職員人力;另 EIT 將由數個知識及創新社群( Knowledge and Innovation Communities, KICs )組成,各 KICs 代表不同區域之大學、研究組織與企業,各 KISs 與 EIT 以契約規範彼此間的權利義務關係;至於各個 KICs 的組織結構,以及其如何達到契約目的,則交由其自治。目前歐盟執委會規劃在 2013 年以前建構約六個 KICs ,預計在此以前, EIT 需要來自公私部門總計約 24 億歐元( €2.4bn )的經費資助。 由於 EIT 的設立尚須經過歐洲議會及歐盟理事會同意,若執委會目前所提出的設立規劃草案順利取得前述兩機構同意,預計 EIT 將可能從 2008 年起正式運作,並在 2010 年以前完成兩個 KICs 的設立。
美國「人工智慧應用管制指引」美國白宮科學與技術政策辦公室(The White House’s Office of Science and Technology Policy , OSTP)於2020年1月9日發布「人工智慧應用管制指引」(Guidance for Regulation of Artificial Intelligence Application),為美國政府機關起草人工智慧規範並進行管制時提供指引,該指引內要求各機關之規範應遵循以下10項人工智慧原則: 一.公眾對AI之信任:政府對AI之管制或其他措施應促進AI之可靠性、健全性,且於應用上應具備可信性。 二.公共參與:政府應提供機會讓利害關係人參與AI管制規範立法程序。 三.科學實證與資訊品質:科學實證與資訊品質:政府機關發展AI之相關技術資訊,應透過公開且可驗證之方式提供給大眾參考,以提高大眾對AI之信任與協助政策制定。 四.風險分析與管理:應採取以風險為基礎之分析評估方法,確認哪些風險係可接受之風險,或那些風險代表無法接受之損害或所失利易大於預期利益。 五.利益與成本:政府於擬定相關規範時,應小心評估AI對於整體社會之利益,與預期外之效果。 六.彈性:法規應持續滾動檢視與調修以因應AI之創新應用。 七.公平且無歧視:政府應針對AI之應用與決策,考量公平與無歧視相關議題。 八.揭露與透明:透明度與揭露程序之建立可提升公眾對AI應用之信任。 九.安全:政府應特別注意AI系統內所儲存或傳輸資訊之安全與相關安全維護控制措施。 十.跨機關合作:政府各部會或機構間應相互合作與分享經驗,以確保AI相關政策之一致性與可預測性。