2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下:
依日本2017年5月30日修正施行之個人資料保護法的最新規定,家長會、同學會、管委會等,就個人資料的蒐集、處理、利用,應與以蒐集、處理、利用個人資料為業之公司行號,在法律上承擔相當之責任、義務。 因此自2017年5月30日起,家長會蒐集、處理、利用個人資料,需要注意以下四點: 一、經當事人請求,應刪除其個人資料。 修正後的個人資料保護法施行後,明知未經或不確定是否經學生監護人同意,而取得其個人資料,都是違法的行為。但目前已經取得的個人資料,即使明知未經或不確定是否經學生監護人同意,也不需要立即刪除。惟若當事人請求刪除,則必須立即刪除。 二、學校應善盡告知之義務,取得學生監護人之同意後,方得將其個人資料轉交家長會蒐集、利用、處理,。 修正後的個人資料保護法允許由學校取得學生監護人之同意後,將其個人資料轉交家長會蒐集、利用、處理。但如果校方未充分盡到告知義務,則有違法之虞。實務上在九州的熊本曾經發生過這樣的案例,由於家長會未依法蒐集、處理、利用其個人資料,監護人提起告訴,最後雙方在二審達成和解。 三、經過監護人同意,方得將其個人資料造冊並刊登照片 由於須明確取得學生監護人之同意,方得將其個人資料造冊並刊登照片。因此為避免學校未善盡告知義務,建議家長會直接請監護人填妥加入家長會之同意書,並於同意書上載明授權蒐集、處理、利用其個人資料之範圍。 四、遵從個人情報保護委員會的指導 若家長會有非法蒐集、利用、處理個人資料之虞,個人情報保護委員會可以檢查並限期改正。屆期如未改正,可裁處罰金或懲役。
歐盟執委會通過關於《人工智慧責任指令》之立法提案歐盟執委會(European Commission)於2022年9月28日通過《人工智慧責任指令》(AI Liability Directive)之立法提案,以補充2021年4月通過之《人工智慧法》草案(Artificial Intelligence Act)。鑑於人工智慧產品之不透明性、複雜性且具自主行為等多項特徵,受損害者往往難以舉證並獲得因人工智慧所造成之損害賠償,《人工智慧責任指令》立法提案即為促使因人工智慧而受有損害者,得以更容易獲得賠償,並減輕受損害者請求損害賠償之舉證責任。 《人工智慧責任指令》透過引入兩個主要方式:(一)可推翻之推定(rebuttable presumptions):人工智慧責任指令透過「因果關係推定(presumption of causality)」來減輕受損害者之舉證責任(burden of proof)。受損害者(不論是個人、企業或組織)若能證明人工智慧系統因過失或不遵守法規要求之義務,致其受有損害(包括基本權利在內之生命、健康、財產或隱私等),並且該損害與人工智慧系統之表現具有因果關係,法院即可推定該過失或不遵守義務之行為造成受損害者之損害。相對的,人工智慧之供應商或開發商等也可提供相關證據證明其過失不可能造成損害,或該損害係由其他原因所致,以推翻該損害之推定。(二)證據揭露機制(disclosure of evidence mechanism):若受害者之損害涉及高風險人工智慧時,得要求自該供應商或開發商等處獲取證據之權利。受害者透過證據揭露機制能夠較容易地尋求法律賠償,並得以找出究責的對象。 歐盟執委會認為以安全為導向的《人工智慧法》,為人工智慧訂定橫向規則,旨在降低風險和防止損害,但仍需要《人工智慧責任指令》之責任規定,以確保損害風險出現時,相關賠償得以被實現。但歐盟執委會仍選擇了較小的干預手段,《人工智慧責任指令》針對過失之責任制度進行改革,並未採取舉證責任倒置(a reversal of the burden of proof)之作法,而是透過「可推翻之推定」,一方面減輕受損害者之舉證責任,使受損害者得對影響人工智慧系統並產生過失或侵害行為之人提出損害賠償;另一方面賦予人工智慧之供應商或開發商等有機會推翻前揭造成損害之推定,以避免人工智慧系統之供應商或開發商面臨更高的責任風險,可能阻礙人工智慧產品和服務創新。
拜登政府宣布採取促進負責任AI創新之新行動,以保護美國人民權利與安全拜登政府於2023年5月4日宣布將採取促進負責任AI創新之新行動,表示公司於部署或公開其產品前,應致力於降低AI風險,並強調風險管理與保障措施的重要性,以防止AI對個人與社會造成潛在危害。此外,拜登總統於2月簽署「透過聯邦政府進一步推動種族平等和支持弱勢群體」行政命令(Executive Order on Further Advancing Racial Equity and Support for Underserved Communities Through The Federal Government),指示聯邦政府機關在設計和使用AI等新技術時,應避免偏見,並保護公眾免受演算法歧視。促進負責任AI創新之新行動包括: 一、投資負責任AI的研發 美國國家科學基金會(National Science Foundation)宣布撥款1.4億美元以啟動7個新的國家AI研究所,未來全美將有25個國家級AI研究所。除有助於促進公私部門之間合作外,將強化AI研發基礎設施、支持多元化AI勞動力發展,及推動氣候、農業、能源、公共衛生、教育與資安等關鍵領域之突破。 二、公開評估現有的生成式AI系統(generative AI systems) Anthropic、Google、Hugging Face、微軟、NVIDIA、OpenAI和Stability AI等領先AI開發商將參與AI系統獨立公開評估,以評估其模型是否符合AI權利法案藍圖(Blueprint for an AI Bill of Rights),及AI風險管理框架(AI Risk Management Framework)所提出之原則與實踐,並使企業及開發人員能就所發現問題,進一步採取解決措施。 三、提出政策引導聯邦政府減輕AI風險及提升AI利用機會 美國行政管理預算局(Office of Management and Budget)宣布,將於2023年夏季發布有關聯邦政府機關各部門使用AI系統之政策指引草案,並徵詢公眾意見。
美國總統拜登簽署「改善國家網路安全」行政命令美國總統拜登於2021年5月12日簽署「改善國家網路安全」總統行政命令(Executive Order on Improving the Nation’s Cybersecurity),旨在增進美國政府與私部門在網路安全議題的資訊共享與合作,以加強美國對事件發生時的因應能力。本命令分從數個面向達成前述目標,分別為: (1)情資共享之強化:消除威脅政府與私部門之間資訊共享的障礙,要求IT與OT服務者偵測到可疑動態時,與政府共享相關資訊與相關安全漏洞資料,簡化並提高服務商與聯邦政府系統服務合約之資安要求。 (2)現代化聯邦政府網路安全:針對聯邦政府網路,建構更現代化與嚴格的網路安全標準,並採取零信任架構,例如應強化雲端服務與未加密資訊之共享機制,包括由公眾直接透過WiFi連網取得或下載之資訊網頁等,針對其建構安全機制、更新加密金鑰與建構新的安全工具。 (3)強化軟體供應鏈安全:提高軟體供應鏈安全性,包括要求開發人員提高其軟體透明度、公開安全資料、利用聯邦資源促進軟體開發市場,以及建構軟體認證,使市場更容易確定該軟體的安全性。 (4)建立資安審查委員會:建立由公私部門共同合作的資安審查委員會(Cybersecurity Safety Review Board),針對重大資安事件做及時的回應、,並進行獨立第三方之審查與建議。 (5)標準化聯邦政府應對資安弱點及資安事件的教戰手冊:建構聯邦政府因應資安事件之資安事件教戰手冊,使聯邦政府得以及時並一致地回應網路攻擊事件。 (6)改進對聯邦政府網路資安弱點及資安事件之偵測:清查聯邦政府端點,改善聯邦政府對資通安全事件的偵查能力,並進一步布建強大的端點監測和回應系統(Endpoint Detect and Response, EDR)。 (7)提升聯邦政府調查與補救之能力:提升資訊安全事件調查與補救能力,並透過更頻繁與一致的資安事件日誌來減緩駭客對聯邦政府網路的入侵。 (8)建制國家安全系統:要求聯邦政府部門採用符合相關網路安全要求之國家安全系統。 本行政命令是美國政府在美國油管遭駭事件後,對相關事件之具體因應。本行政命令雖主要著眼於聯邦政府的網路安全,但亦透過總統行政命令鼓勵私部門在網路安全核心服務上加強合作與投資。預計美國在此總統行政命令基礎上,將有進一步強化公私合作的措施與資源挹注。