英國發布「人工智慧:機會與未來決策影響」政策報告,並聚焦人工智慧運用及管理

  英國科學辦公室於2016年11月9日,發布一份政策報告:「人工智慧:機會與未來決策影響(Artificial intelligence: opportunities and implications for the future of decision making)」,介紹人工智慧對於社會及政府的機會和影響,此份政策報告並提出以下各項重要建議:

(一)關於人工智慧及應用界定與發展

  人工智慧是指由人工製造系統所表現出來的智慧。不僅是將現有的流程自動化,還包含制定目標,並利用電腦程式實現這些目標,常見案例包括線上翻譯、語音辨識、搜尋引擎篩選排序、垃圾郵件過濾、透過用戶回饋改善線上服務、預測交通流量、環境或社會經濟趨勢發展觀察等。

(二)未來對社會及政府利益及衝擊

  人工智慧針對提高生產力有巨大的潛力,最明顯的就是幫助企業或個人更有效地運用資源,並簡化大量資料的處理,例如Ocado 及 Amazon這樣的公司正充份利用人工智慧改善倉儲及銷售網路系統,使得客戶可便利快速購得網購商品。

  目前,政府也日益增加相關技術的運用,以提高公共服務效率,使資源達到最佳化分配;減少決策者被誤導的可能;使政府決策透明化;確保各部門更了解人民的意見。然政府在利用人工智慧及巨量資料時,應遵守倫理使用指南,並遵守英國資料保護法及歐盟一般資料保護規則等相關法規。

  在巨量資料、機器人、自動系統對於勞動市場的衝擊一直都是關注的議題,對於面臨未來工作結構的轉型及相關技術人員的進修及培養,應及早規劃,以適應未來的轉變。

(三)關於相關道德及法律風險管理課題

  人工智慧可能潛在相關道德倫理問題。許多專家認為政府應積極管理並降低風險發生可能性,可從以下兩個面向思考:

(1)研究機器學習與個人資料運用結合時,對個人自由、隱私和同意等概念的影響。

(2)調適由人工智慧作決策行為時的歸責概念和機制。

  有關實際案例之研究,則包括,執法單位在應用預測技術時,應避免以種族、國籍、地址作為標準,並嚴守無罪推定原則,以防止民眾受到歧視或不公平的指控;透過人工智慧可從公開資料推測出某些私人訊息或其親朋好友的消息,此訊息即可能超出原先個人同意披露的內容;原先匿名化及去識別化的訊息,因人工智慧功能加強,導至可能被重新識別,故須定期檢視該保護措施是否足夠。另外,人工智慧的演算偏差可能導致偏見的風險,為了降低這種風險,技術人員應採取對應措施。

  針對責任及疏失的判斷,目前尚無太多的實務案例,但為保持對使用人工智慧的信任,仍需有明確的歸責制,可能有必要讓首席執行長或高級主管對人工智慧做出的決策負最終責任。許多專家也建議,部分技術內容須保持透明度,以確定技術使用時是否有盡到相關注意義務。

  人工智慧已成為未來發展趨勢之一,對於社會整體層面影響將越來越深,新的技術除了可提升生產力,帶來便利的生活,同樣也會帶來衝擊。為促進相關產業發展及推展新技術的使用,應打造技術發展友善環境,並對於公眾安全進行相關風險評估,如果風險屬於現有監管制度範圍,應評估是否可充分解決風險,或是須要做相對應的調適。另外,在人工智慧融入現實世界同時,相關業者應注意相關產品安全性、隱私權保護和從業人員的倫理教育,以提高大眾對新技術的接受及信賴,並確保對於未來挑戰及轉變已做好萬全準備。

本文為「經濟部產業技術司科技專案成果」

相關連結
你可能會想參加
※ 英國發布「人工智慧:機會與未來決策影響」政策報告,並聚焦人工智慧運用及管理, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?tp=1&i=72&d=7678&no=64&sid=r3hRgE (最後瀏覽日:2024/05/14)
引註此篇文章
你可能還會想看
英國政府公布物聯網設備安全設計報告及製造商應遵循之設計準則草案

  英國數位文化媒體與體育部於2018年3月8日公布「安全設計:促進IoT用戶網路安全(Secure by Design: Improving the cyber security of consumer Internet of Things)」報告,目的在於讓物聯網設備製造商於製程中即採取具有安全性之設計,以確保用戶之資訊安全。此報告經英國國家網路安全中心(National Cyber Security Centre, NCSC)、製造商及零售商共同討論,並提出了一份可供製造商遵循之行為準則(Code of Practice)草案。   此行為準則中指出,除設備製造商之外,其他包含IoT服務提供者、行動電話軟體開發者與零售商等也是重要的利益相關人。   其中提出了13項行為準則: 不應設定預設密碼(default password); 應實施漏洞揭露政策; 應持續更新軟體; 應確保機密與具有安全敏感性的資訊受到保護; 應確保通訊之安全; 應最小化設備可能受到網路攻擊的區域; 應確保軟體的可信性; 應確保設備上之個資受到妥善保障; 應確保系統對於停電事故具有可回復性; 應監督設備自動傳輸之數據; 應使用戶可以簡易的方式刪除個人資訊; 應使設備可被容易的安裝與維護; 應驗證輸入設備之數據。   此草案將接受公眾意見至2018年4月25日,並規劃於2018年期間進一步檢視是否應立相關法律與規範,以促進英國成為領導國際之數位國家,並減輕消費者之負擔並保障其隱私與安全權益。

美國參議院司法委員會通過草案 擬規範學名藥給付延遲訴訟和解協議

  為禁止藥廠間持續利用「給付遲延和解協議」(pay-for-delay settlements)來延遲低價學名藥品上市,美國參議院司法委員會(Senate Judiciary Committee),日前已表決通過由參議員Herb Kohl 所提之「保障低價學名藥品近用法草案」 (Preserve Access to Affordable Generic Drugs Act 【S. 369】),並已提交兩院,進行後續之討論及審查。而就該新法草案內容,大致上,是為解決品牌藥廠因採逆向給付(Reverse Payment)和解協議以阻礙學名藥品上市時,將帶來長期用藥與醫療成本增加等問題之目的而設。   而就前述所提及之訴訟協議模式來說,原則上,在品牌藥商為解決藥品專利訴訟問題之前提下,透過給付學名藥品廠商數百萬美元報酬(即補償金)之方式,來做為換取學名藥廠同意並承諾願將該公司學名藥產品延緩上市條件之對價,並藉此以保存系爭藥品原先既存之市場利潤。而對此類將嚴重影響大眾日後近用低價藥品權益之和解協議,美國聯邦貿易委員會(Federal Trade Commission;簡稱FTC)業已於近期內,作出完整之分析報告,其指明,若政府能終止此類和解協議,除將可於往後十年間,可為聯邦政府減低近120億美金之預算支出外;同時,亦可為民眾節省下近350億美金之醫療成本。   此外,由於受FTC該份分析報告之影響,於先前司法委員會之表決過程中,委員對此類訴訟和解所採之態度,也產生重大轉變,亦即,其從最初肯認可提出充分證據並證明將不會損及正常藥廠間競爭之和解協議,轉而改為,應嚴格限制此類訴訟和解協議之產生;同時,為嚇阻藥廠間給付遲延訴訟協議之達成,於此項新法草案中,亦新增相關處罰之規定。   最後,參議員Kohl強調:「一旦此項草案通過,除將可終結過往那些罔顧消費者權益之不當競爭行為外;從長期影響之角度來看,該法案亦可為公眾省下每年約數十億美金之用藥花費」。。

歐洲議會全體會議投票通過《資安韌性法》草案,以提高數位產品安全性

歐洲議會於2024年3月12日全體會議投票通過《資安韌性法》(Cybersecurity Resilience Act)草案,後續待歐盟理事會正式同意後,於官方公報發布20天起生效。該草案旨於確保具有數位元件之產品(products with digital elements, PDEs)(下簡稱為「數位產品」)具備對抗資安威脅的韌性,並提高產品安全性之透明度。草案重點摘要如下: 一、數位產品進入歐盟市場之條件 課予數位產品之製造商及其授權代理商、進口商與經銷商法遵義務,規定產品設計、開發與生產須符合資安要求(cybersecurity requirements),且製造商須遵循漏洞處理要求,產品始得進入歐盟市場。 二、數位產品合規評估程序(conformity assessment procedures) 為證明數位產品已符合資安及漏洞處理要求,依數位產品類別,製造商須對產品執行或委託他人執行合規評估程序:關鍵與重要數位產品(無論I類或II類)應透過第三方進行驗證,一般數位產品得由製造商自行評估。通過合規評估程序後,製造商須提供「歐盟符合性聲明」(EU declaration of conformity),並附標CE標誌以示產品合規。 三、製造商數位產品漏洞處理義務 製造商應識別與記錄數位產品漏洞,並提供「安全更新」(security updates)等方式修補漏洞。安全更新後,應公開已修復漏洞之資訊,惟當製造商認為發布之資安風險大於安全利益時,則可推遲揭露相關資訊。 四、新增開源軟體管理者(open-source software steward)之義務 開源軟體管理者應透過可驗證的方式制定書面資安政策,並依市場監管機關要求與其合作。當開源軟體管理者發現其所參與開發的數位產品有漏洞,或遭受嚴重事故時,應及時透過單一通報平臺(single reporting platform)進行通報,並通知受影響之使用者。

英國Royal Free國家健康服務基金信託與Google DeepMind間的資料分享協議違反英國資料保護法

  英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2017年7月公告Royal Free國家健康服務基金信託(Royal Free London NHS Foundation Trust)與Google人工智慧研究室DeepMind之間的資料分享協議,違反資料保護法(Data Protection Act)。   該協議之目的在使DeepMind利用Royal Free所提供的醫療資料,開發一款名為Streams的應用程式,透過人工智慧系統分析得知病患惡化之情況,並以手機警示方式通知臨床醫生。由於涉及病患的可識別個人資料且人數多達160萬人,協議的合法性,尤其在資料分享是否經病患同意方面,受到質疑。   Royal Free與DeepMind主張因應用程式是直接對病患進行醫療照護,具有病患默示同意(implied consent)之正當基礎,且資料經加密後才傳給DeepMind。惟經ICO調查結果如下: 就資料將被使用作為應用程式測試一事,病患未獲充分告知亦無合理期待; 雖執行隱私影響評估,惟僅於資料傳給DeepMind後才進行,無法發揮事前評估作用; 應用程式尚在測試階段,無法說明揭露160萬病患紀錄的必要性與手段合理性。   目前Royal Free已承諾改進以確保其行為合法性。ICO之認定突顯創新不應以「減損法律對基本隱私權保障」作為代價。

TOP