歐盟於2022年6月29日提出《2022年前瞻策略報告:新地緣政治下之綠能與數位轉型雙生》(Twinning the green and digital transitions in the new geopolitical context,以下簡稱《2022年前瞻策略報告》),促進氣候與數位的協同和一致性,以面對現今與2025年的挑戰。歐盟主席Ursula Gertrud von der Leyen曾於2019年指出,綠能與數位轉型為首要的任務;鑒於俄羅斯與烏克蘭之戰爭,歐洲正加速提升於氣候與數位之全球性領導地位,聚焦於能源、糧食、國防與尖端技術之關鍵挑戰。《2022年前瞻策略報告》提出願景與雙生轉型(twin transitions)互動的整體分析,考量新興技術的角色,和地緣政治、社會、經濟與法規的因素,以塑造雙生,相互強化,並降低戰略依賴。
《2022年前瞻策略報告》確立十大關鍵行動,以擴大機會並減少源於雙生的潛在風險。該關鍵行動分別為:
1、在變化的地緣政治環境,歐盟需在轉型的關鍵領域中,持續強化其彈性與開放戰略的自主權。
2、歐盟須致力於促進全球的雙生轉型。
3、歐盟須策略性的管理關鍵商品的供應鏈,以達成雙生轉型,並保持其經濟上之競爭力。
4、在轉型的過程中,歐盟須強化社會與經濟上的凝聚。
5、教育與訓練系統須能適應新的社會經濟現實。
6、額外的投資須能轉向於支持技術與基礎設施。
7、引導轉型須有穩健與可信賴的監控框架。
8、具未來性與敏捷性的歐盟立法框架,須以單一市場為核心,將有利於具持續性的商業模型與消費模式。
9、制訂標準(Setting standards)為雙生和確定歐盟朝競爭持續性發展的關鍵。
10、更強健的網路安全與資料共享框架必須對潛在的雙生技術解鎖。
本文同步刊登於TIPS網站(https://www.tips.org.tw)
日本在促進產學合作,除了A-step計劃外,亦成立了創新中繼站構築援助事業(Support Program for Forming Innovation Hub)與創新中心(COI)等。 創新中繼站構築援助事業,由JST協助國立研發法人推動改革,以強化法人之效能,並做為大學與企業之中繼站,大學主司研究,企業則負責產業化階段,中間點則由JST與國立研發法人一同合作。JST負責召集人才、評定人才並進行創業援助、技術調查與分析。國立研發法人則提供人才培育及交流所需之資源(例如:機具設備的整修與提供,推動研究開發等等)。 創新中心(COI)則是政府預測未來10年之社會變遷及人口結構,再根據未來社會可能之需要,以建立理想社會為目標,通常進行具有高難度、高風險研發之創新中心。目前日本有18個創新中心分佈全國各地,由國家指定企業與大學共同進行,但是研究負責人只能是大學。
何謂「無人機」?無人機(Drone)也就是無人飛機或無人飛行器(Unmanned Aerial Vehicles, UAV),具備自動飛行系統的簡易模型飛機,自動飛行系統內可能包含一電腦作業系統、一套衛星導航裝置、羅盤功能、氣壓高度計、偵測器及設計飛行之軟體等等,簡稱無人機。茲因電子與無線傳輸科技進步,無人機在國際間掀起流行,近來無人機之使用引發安全疑慮,促進各國重視無人機的使用與法制管理。目前國際間陸續針對無人機立法管理的有美國、日本及歐盟等,我國行政院亦於2015年9月24日通過「民用航空法」部分條文修正草案因應無人機遙控管理規範。觀諸國際立法及修法趨勢,無人航空器之管理,包括無人機的體積、重量、使用用途、使用區域限制、使用時間限制、飛行速度或方法、飛行高度限制等,且亦須重視安全、隱私、資料保護、損害責任與保險相關問題,以及無人機所有權明確判別之方式等,因此我國未來就無人機相關管理規範或可參考先進國家重要管理規定,擬定更適合我國之「無人航空器管理規則」,俾利發展新興科技無人機市場時,同時能兼顧確保個人、國家與領空安全之規劃。
「環境科技、環境政策與貿易」專題連載(3):環保標章、環境商品市場拓展與貿易 美國國防部「人工智慧國防運用倫理準則」美國國防部(Department of Defense)於2020年2月採納由美國國防創新委員會(Defense Innovation Board, DIB)所提出之「人工智慧國防運用倫理準則(AI Principles: Recommendations on the Ethical Use of Artificial Intelligence by the Department of Defense)」,以衡平倫理與人工智慧於國防帶來之增益。 美國國防創新委員會為美國聯邦政府下之獨立委員會,設置目的在於依美國新創科技,提供意見予美國國防部,與美國國防部並無隸屬關係。有鑑於人工智慧之運用範疇日益增廣,美國國防創新委員會遂提出旨揭「人工智慧國防運用倫理準則」,以因應人工智慧於國防之應用所產生之問題。 倫理準則適用於「戰爭或非戰爭用途之人工智慧之設計以及應用」,對於「人工智慧」之定義,倫理準認為人工智慧並無精確之範疇,只要「對於資訊有所處理並旨在達到所賦予任務之資訊系統」,皆為本準則下之人工智慧。倫理準則指出,「人工智慧」與美國國防部3000.09指令下之「自動化武器系統(Autonomous Weapon System)」之定義不同,但有可能重疊,而所謂「自動化武器系統」為「一經人類選擇啟動,即可在無人類監督之情形下,自動針對目標進行鎖定或進行攻擊之自動化武器系統」。 美國國防創新委員會表示,該準則旨在切合美國既有憲法、法律、國際公約之傳統標準下,融入現代化對於人工智慧之要求,如國際公約中之戰爭法(Law of War)即為本準則之傳統標準之一,舉例而言,如人工智慧被裝置於武器中,其設計及應用應符合最小傷亡原則、避免傷及無辜原則等。 除此之外,準則亦包含以下現代化對於人工智慧之要求:(1)人類對於人工智慧系統之設計、應用以及使用應善盡判斷以及注意義務,且人類應該對於人工智慧系統因瑕疵所帶來之傷害負擔最終責任;(2)對於目標之選擇或分類,應維持公平性,且不得有歧視性;(3)對於人工智慧之設計、應用以及使用,應有明確之工程標準以及資料保存程序,此一工程標準以及資料保存程序應為一般具有專業知識之工程人員可據以理解、分析、追蹤問題所在並加以改善;(4)「戰爭或非戰爭用途之人工智慧」應有明確之應用領域,且完善之檢測、維修,應適用於該人工智慧之全部生命週期。