歐盟執委會於2020年2月公布《人工智慧白皮書》(AI White Paper)後,持續蒐集各方意見並提出新的人工智慧規範與行動。2021年4月針對人工智慧法律框架提出規範草案(Proposal for a Regulation on a European approach for Artificial Intelligence),透過規範確保人民與企業運用人工智慧時之安全及基本權利,藉以強化歐盟對人工智慧之應用、投資與創新。
新的人工智慧法律框架未來預計將統一適用於歐盟各成員國,而基於風險規範方法將人工智慧系統主要分為「不可接受之風險」、「高風險」、「有限風險」及「最小風險」四個等級。「不可接受之風險」因為對人類安全、生活及基本權利構成明顯威脅,故將被禁止使用,例如:政府進行大規模的公民評分系統;「高風險」則是透過正面例舉方式提出,包括:可能使公民生命或健康處於危險之中的關鍵基礎設施、教育或職業培訓、產品安全、勞工與就業、基本之私人或公共服務、可能會干擾基本權之司法應用、移民與庇護等面向,而高風險之人工智慧在進入市場之前須要先行遵守嚴格之義務,並進行適當風險評估及緩解措施等。「有限風險」則是指部分人工智慧應有透明度之義務,例如當用戶在與該人工智慧系統交流時,需要告知並使用戶意識到其正與人工智慧系統交流。最後則是「最小風險」,大部分人工智慧應屬此類型,因對公民造成很小或零風險,各草案並未規範此類人工智慧。
未來在人工智慧之治理方面,歐盟執委會建議各國現有管理市場之主管機關督導新規範之執行,且將成立歐洲人工智慧委員會(European Artificial Intelligence Board),推動人工智慧相關規範、標準及準則之發展,也將提出法規沙盒以促進可信賴及負責任之人工智慧。
日本A-STEP計畫係指研發成果最適展開支援事業計畫,由國立研究開發法人科學技術振興機構負責辦理,主要目的在於兼顧大學研究成果之學術價值及實用性,同時透過產學合作推展大學的研發成果,帶動創新產生。計畫針對產業技術瓶頸,為民間企業不易涉入的高風險研發領域,由科學技術振興機構中介民間企業與公私立大學、公私立技術學院、公立研究機構、國立研究開發法人、公益法人共同執行產學研種子研發計畫,再依據不同的目的、技術性質規劃不同類型的產學研合作研究計畫進行資助。 研究成果最適展開支援事業有兩個特色:單一申請窗口、以及採取接續模式分段申請。其流程為,大學研究人員向國立研究開發法人科學技術振興機構申請研究成果最適展開支援事業,在研究開發階段中,若被補助的種子計畫在結束後,想持續進行研究,可申請另一階段-委託開發實用挑戰之計畫補助,國立研究開發法人科學技術振興機構將透過外界研究人員對計畫進行審核,決定是否延長計畫以及延長的期程。一般研究開發可區分為三階段:可能性驗證、實用性驗證與實證驗證,故研究人員在申請A-STEP計畫時,研究計畫中需提及所申請計畫的現在發展情況與條件及想申請何種項目,以利國立研究開發法人科學技術振興機構決定後續的處理方式。
英國發布「人工智慧:機會與未來決策影響」政策報告,並聚焦人工智慧運用及管理英國科學辦公室於2016年11月9日,發布一份政策報告:「人工智慧:機會與未來決策影響(Artificial intelligence: opportunities and implications for the future of decision making)」,介紹人工智慧對於社會及政府的機會和影響,此份政策報告並提出以下各項重要建議: (一)關於人工智慧及應用界定與發展 人工智慧是指由人工製造系統所表現出來的智慧。不僅是將現有的流程自動化,還包含制定目標,並利用電腦程式實現這些目標,常見案例包括線上翻譯、語音辨識、搜尋引擎篩選排序、垃圾郵件過濾、透過用戶回饋改善線上服務、預測交通流量、環境或社會經濟趨勢發展觀察等。 (二)未來對社會及政府利益及衝擊 人工智慧針對提高生產力有巨大的潛力,最明顯的就是幫助企業或個人更有效地運用資源,並簡化大量資料的處理,例如Ocado 及 Amazon這樣的公司正充份利用人工智慧改善倉儲及銷售網路系統,使得客戶可便利快速購得網購商品。 目前,政府也日益增加相關技術的運用,以提高公共服務效率,使資源達到最佳化分配;減少決策者被誤導的可能;使政府決策透明化;確保各部門更了解人民的意見。然政府在利用人工智慧及巨量資料時,應遵守倫理使用指南,並遵守英國資料保護法及歐盟一般資料保護規則等相關法規。 在巨量資料、機器人、自動系統對於勞動市場的衝擊一直都是關注的議題,對於面臨未來工作結構的轉型及相關技術人員的進修及培養,應及早規劃,以適應未來的轉變。 (三)關於相關道德及法律風險管理課題 人工智慧可能潛在相關道德倫理問題。許多專家認為政府應積極管理並降低風險發生可能性,可從以下兩個面向思考: (1)研究機器學習與個人資料運用結合時,對個人自由、隱私和同意等概念的影響。 (2)調適由人工智慧作決策行為時的歸責概念和機制。 有關實際案例之研究,則包括,執法單位在應用預測技術時,應避免以種族、國籍、地址作為標準,並嚴守無罪推定原則,以防止民眾受到歧視或不公平的指控;透過人工智慧可從公開資料推測出某些私人訊息或其親朋好友的消息,此訊息即可能超出原先個人同意披露的內容;原先匿名化及去識別化的訊息,因人工智慧功能加強,導至可能被重新識別,故須定期檢視該保護措施是否足夠。另外,人工智慧的演算偏差可能導致偏見的風險,為了降低這種風險,技術人員應採取對應措施。 針對責任及疏失的判斷,目前尚無太多的實務案例,但為保持對使用人工智慧的信任,仍需有明確的歸責制,可能有必要讓首席執行長或高級主管對人工智慧做出的決策負最終責任。許多專家也建議,部分技術內容須保持透明度,以確定技術使用時是否有盡到相關注意義務。 人工智慧已成為未來發展趨勢之一,對於社會整體層面影響將越來越深,新的技術除了可提升生產力,帶來便利的生活,同樣也會帶來衝擊。為促進相關產業發展及推展新技術的使用,應打造技術發展友善環境,並對於公眾安全進行相關風險評估,如果風險屬於現有監管制度範圍,應評估是否可充分解決風險,或是須要做相對應的調適。另外,在人工智慧融入現實世界同時,相關業者應注意相關產品安全性、隱私權保護和從業人員的倫理教育,以提高大眾對新技術的接受及信賴,並確保對於未來挑戰及轉變已做好萬全準備。
智慧財產權侵權風險分擔機制-歐盟專利訴訟保險制度 英國數位、文化、媒體暨體育部公布「家用智慧裝置消費者指引」英國數位、文化、媒體暨體育部於2018年10月14日公布「家用智慧裝置消費者指引」(Consumer guidance for smart devices in the home)。該指引之目的係因應家用之智慧及聯網設備(例如:智慧電視、音樂播放器、聯網玩具或智慧廚房等)日益普及,以及可能發生之侵害消費者個人資料之風險。 本指引提出以下方向,供消費者參考: 一. 智慧裝置之設定 (一) 應閱讀與遵循智慧設備之設定指示。 (二) 確認設備指示是否要求使用者須至製造商網站設定帳號。 (三) 若所設備預設之密碼過於簡單(例如,0000),則應更換成較複雜之密碼。 二. 帳號管理 (一) 確保密碼複雜性。 (二) 若設備提供雙重驗證功能,消費者應使用之。 (三) 特定產品可能提供遠端存取功能,消費者應於不再家時考慮將該功能關閉。 三. 持續更新應用軟體與Apps (一) 消費者應檢查其設備是否可設定自動更新。 (二) 應安裝最新版本的軟體與Apps。 四. 若接到資安事件之通知,應採取行動 (一) 於接到資安事件通知後,應訪問製造商網站以確認其是否提供後續因應措施等資訊。 (二) 定時確認國家安全網路中心以及資訊保護委員會辦公室網站是否公布相關網路安全指引。