新加坡政府科技局(Government Technology Agency of Singapore, 下稱 GovTech)在2017年8月21號提出智慧國家的5個策略性國家計畫,指出為了建立數位國家,政府將會更加注重基礎建設的整合途徑,未來將聚焦5項計畫:
本文為「經濟部產業技術司科技專案成果」
美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。 本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。 本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。
黑莓機服務中斷數日,RIM面臨用戶集體求償全球商務人士最喜愛使用的智慧型手機「黑莓機」,在今年(2011)10月中旬出現全球大當機,手機用戶無法上網及收發簡訊,影響範圍從歐洲擴及北美與世界各地。手機製造商Research In Motion (RIM)的首席執行長Mike Lazaridis在官網上以視訊公開向全球用戶道歉,並提出可免費下載100美元的應用軟體作為補償。然而此舉無法平息用戶的怒火,許多使用者正打算對RIM提出訴訟求償,因為中斷服務害他們錯失許多訊息與會議時間。 加拿大魁北克的高等法院就收到使用者對RIM要求經濟補償的集體訴訟,因為RIM所提出的補償措施根本無法彌補中斷服務數天的損失。若法院認同訴訟主張,RIM遭求償的總額或許很高,不過使用者提出的訴求是中斷服務的1.5天,他們無法使用月付25元加幣的無線網路服務,因此按比例分攤每件可能僅1.25元。而在美國的消費訴訟律師,則考慮對RIM提出違約訴訟或是消費詐欺,前者是以RIM未依約盡到其提供服務的責任為主張;而後者消費詐欺的重點則是著眼於,RIM導致消費者誤信黑莓機的可靠性。然而使用者所面臨的困難是,要如何證明他們所受到的損害,高於原本應獲得的服務,而且因為是全區域的服務中斷,在跨州的集體訴訟中還有各州法律適用的問題。有法律專家言明,要證明因為不能使用智慧型手機的功能而造成的實際損害非常困難,畢竟在緊急時刻,溝通(communicate)還有其他選擇方式。
解析中國江蘇省「企業知識產權管理規範」之內容與對台商的影響 歐盟提出人工智慧法律框架草案歐盟執委會於2020年2月公布《人工智慧白皮書》(AI White Paper)後,持續蒐集各方意見並提出新的人工智慧規範與行動。2021年4月針對人工智慧法律框架提出規範草案(Proposal for a Regulation on a European approach for Artificial Intelligence),透過規範確保人民與企業運用人工智慧時之安全及基本權利,藉以強化歐盟對人工智慧之應用、投資與創新。 新的人工智慧法律框架未來預計將統一適用於歐盟各成員國,而基於風險規範方法將人工智慧系統主要分為「不可接受之風險」、「高風險」、「有限風險」及「最小風險」四個等級。「不可接受之風險」因為對人類安全、生活及基本權利構成明顯威脅,故將被禁止使用,例如:政府進行大規模的公民評分系統;「高風險」則是透過正面例舉方式提出,包括:可能使公民生命或健康處於危險之中的關鍵基礎設施、教育或職業培訓、產品安全、勞工與就業、基本之私人或公共服務、可能會干擾基本權之司法應用、移民與庇護等面向,而高風險之人工智慧在進入市場之前須要先行遵守嚴格之義務,並進行適當風險評估及緩解措施等。「有限風險」則是指部分人工智慧應有透明度之義務,例如當用戶在與該人工智慧系統交流時,需要告知並使用戶意識到其正與人工智慧系統交流。最後則是「最小風險」,大部分人工智慧應屬此類型,因對公民造成很小或零風險,各草案並未規範此類人工智慧。 未來在人工智慧之治理方面,歐盟執委會建議各國現有管理市場之主管機關督導新規範之執行,且將成立歐洲人工智慧委員會(European Artificial Intelligence Board),推動人工智慧相關規範、標準及準則之發展,也將提出法規沙盒以促進可信賴及負責任之人工智慧。