美國加州「Asilomar人工智慧原則決議」

  美國加州議會於2018年9月7日通過Asilomar人工智慧原則決議(23 Asilomar AI Principles, ACR-215),此決議表達加州對於「23條Asilomar人工智慧原則」之支持,以作為產業或學界發展人工智慧、政府制定人工智慧政策之指標,並提供企業開發人工智慧系統時可遵循之原則。依此法案所建立之重要指標如下:

(1)於研究原則上,人工智慧之研究應以建立對於人類有利之人工智慧為目標。
(2)於研究資助上,人工智慧之研究資助應著重幾個方向,如:使人工智慧更加健全且可抵抗外界駭客干擾、使人工智慧促進人類福祉同時保留人類價值以及勞動意義、使法律制度可以順應人工智慧之發展。
(3)於科學政策之連結上,人工智慧研究者與政策擬定者間應有具有建設性且健全之資訊交流。
(4)於研究文化上,人工智慧研究者應保持合作、互信、透明之研究文化。
(5)於安全性上,人工智慧研究團隊應避免為了研究競爭而忽略人工智慧應具備之安全性。
(6)人工智慧系統應該於服務期間內皆具備安全性及可檢視性。
(7)人工智慧系統之編寫,應可使外界於其造成社會損失時檢視其出錯原因。
(8)人工智慧系統如應用於司法判斷上,應提供可供專門人員檢視之合理推論過程。
(9)人工智慧所產生之責任,應由設計者以及建造者負擔。
(10)高等人工智慧內在價值觀之設計上,應符合人類社會之價值觀。
(11)高等人工智慧之設計應可與人類之尊嚴、權利、自由以及文化差異相互調和。
(12)對於人工智慧所使用之資料,其人類所有權人享有擷取、更改以及操作之權利。
(13)人工智慧之應用不該限制人類「客觀事實上」或「主觀知覺上」之自由。
(14)人工智慧之技術應盡力滿足越多人之利益。
(15)人工智慧之經濟利益,應為整體人類所合理共享。
(16)人類對於人工智慧之內在目標應享有最終設定權限。
(17)高等人工智慧所帶來或賦予之權力,對於人類社會之基本價值觀應絕對尊重。
(18)人工智慧所產生之自動化武器之軍備競賽應被禁止。
(19)政策上對於人工智慧外來之發展程度,不應預設立場。
(20)高等人工智慧系統之研發,由於對於人類歷史社會將造成重大影響,應予以絕對慎重考量。
(21)人工智慧之運用上,應衡量其潛在風險以及可以對於社會所帶來之利益。
(22)人工智慧可不斷自我循環改善,而可快速增進運作品質,其安全標準應予以嚴格設定。
(23)對於超人工智慧或強人工智慧,應僅為全體人類福祉而發展、設計,不應僅為符合特定國家、組織而設計。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 美國加州「Asilomar人工智慧原則決議」, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8213&no=0&tp=5 (最後瀏覽日:2025/12/12)
引註此篇文章
你可能還會想看
歐盟執委會發布「再生能源:歐洲能源市場的重要角色」產業推動報告

  歐盟執委會於2009年4月23日發布再生能源指令(DIRECTIVE 2009/28/EC),目標在2020年達成20%的再生能源利用;並於2011年1月31日發布「再生能源:邁向2020目標」(Renewable Energy: Progressing towards the 2020 target)通訊報告,檢視歐洲再生能源產業概況及所面對的挑戰,透過與「歐洲及國家再生能源領域之財務檢視」(Review of European and national financing of renewable energy in accordance with Article 23(7) of Directive 2009/28/EC)、「運輸領域使用生質燃料及其他再生燃料的發展及技術評估」(Recent progress in developing renewable energy sources and technical evaluation of the use of biofuels and other renewable fuels in transport in accordance with Article 3 of Directive 2001/77/EC and Article 4(2) of Directive 2003/30/EC)及「生質燃料及生質燃油永續計畫報告」(Report on the operation of the mass balance verification method for the biofuels and bioliquids sustainability scheme in accordance with Article 18(2) of Directive 2009/28/EC)等三份報告的結合,瞭解再生能源領域發展所須的支出、確保其品質、運用最有效率及最具經濟效益的手段,架構歐洲再生能源利用之2020年目標。   為達此一目標,各會員國自行採取相關措施加以推動,每年投入的資金呈倍數的成長;然在2020年之後,卻未見相關政策規劃。為持續發展再生能源,執委會於2012年6月6日發布「再生能源:歐洲能源市場的重要角色」(Renewable Energy: a major player in the European energy market)通訊報告,呼籲各會員國在相關計畫的建立與改革採取更協調一致的措施,提升會員國間再生能源的交易,並探討2020年之後再生能源的發展框架。此一通訊報告包含兩部分:第一、為達2020年的再生能源發展目標,指出四個須加速推動的領域;第二、開始思考2020年後之規劃框架。   針對應加速推動以達成2020年發展目標的四大領域,包括(1)能源市場、(2)支援計畫(support schemes)、(3)合作機制、(4)地中海區能源合作計畫。歐盟執委會堅持達成境內能源市場的整合,並認為有必要提供投資獎勵,以順利進行。對於相關支援計畫,應鼓勵降低成本並避免過度補貼;由於支援計畫多由各國政府主導,而各國可能有缺乏透明度、突然終止、甚至補助差異,造成市場運作模式的阻礙,因此執委會呼籲透過跨國的合作來解決。此外,執委會鼓勵增加合作機制,使會員國間能透過再生能源的交易、降低成本,以達成再生能源利用目標。針對地中海區的能源合作計畫,執委會建議改善其管理框架,並著重於整合馬格里布地區(Maghreb)的市場,將有助於大規模投資,進口再生能源電力。   針對2020年後之發展,則應兼顧創新與降低成本,促進對再生能源的投資。依據歐洲「2050能源路徑圖」(Energy Roadmap 2050)之規劃,開始探討邁向2030的發展策略,主要仍以溫室氣體排放、再生能源及能源效率為政策目標。執委會強調,儘速確定2030年的發展規劃至關重要,此規劃並應使再生能源業者在能源市場上提升其競爭力。

歐盟通過《歐盟綠色債券規則》,建立綠色債券監管框架

歐盟於2023年10月11日發布《歐洲綠色債券監管及環境永續債券市場與永續連結債券自願性揭露規則》(Regulation on European Green Bonds and optional disclosures for bonds marketed as environmentally sustainable and for sustainability-linked bonds,下稱《歐洲綠色債券規則》),預計於2023年12月20日生效,針對在歐盟境內發行之綠色債券建立一套監管框架,課予欲使用「歐洲綠色債券」(European Green Bond)或「EuGB」等名稱發行環境永續債券的發行人一定義務,促進綠色債券的一致性和可比性,以保障投資人。綠色債券是發展綠色技術、能源效率和提升資源運用以及其他永續相關基礎設施投融資的主要工具之一,本規則之通過也被視為落實歐盟永續成長融資策略以及向碳中和、循環經濟轉型的一大進展。 《歐洲綠色債券規則》規範重點如下: 1.資金用途限制:《綠色債券規則》所有透過歐盟綠色債券募得的資金,原則上均必須投資於符合《歐盟永續分類標準》(EU Taxonomy)技術篩選標準的永續經濟活動,只有在所欲投資的經濟活動類別尚未被納入該標準時得為例外,且以總額之15%為限; 2.資訊揭露:綠色債券之發行人有義務揭露該債券之概況介紹(Factsheet)、資本支出計畫、資金使用分配報告、衝擊報告,並於債券公開說明書敘明資金用途,並得選擇進一步說明該債券之資金如何與自身企業整體環境永續目標相結合; 3.外部審查:前述資訊均須由已向歐洲證券與市場管理局(European Securities and Markets Authority)註冊之外部機構進行審查,以確保其準確性及可靠性。

歐盟執委會通過關於《人工智慧責任指令》之立法提案

  歐盟執委會(European Commission)於2022年9月28日通過《人工智慧責任指令》(AI Liability Directive)之立法提案,以補充2021年4月通過之《人工智慧法》草案(Artificial Intelligence Act)。鑑於人工智慧產品之不透明性、複雜性且具自主行為等多項特徵,受損害者往往難以舉證並獲得因人工智慧所造成之損害賠償,《人工智慧責任指令》立法提案即為促使因人工智慧而受有損害者,得以更容易獲得賠償,並減輕受損害者請求損害賠償之舉證責任。   《人工智慧責任指令》透過引入兩個主要方式:(一)可推翻之推定(rebuttable presumptions):人工智慧責任指令透過「因果關係推定(presumption of causality)」來減輕受損害者之舉證責任(burden of proof)。受損害者(不論是個人、企業或組織)若能證明人工智慧系統因過失或不遵守法規要求之義務,致其受有損害(包括基本權利在內之生命、健康、財產或隱私等),並且該損害與人工智慧系統之表現具有因果關係,法院即可推定該過失或不遵守義務之行為造成受損害者之損害。相對的,人工智慧之供應商或開發商等也可提供相關證據證明其過失不可能造成損害,或該損害係由其他原因所致,以推翻該損害之推定。(二)證據揭露機制(disclosure of evidence mechanism):若受害者之損害涉及高風險人工智慧時,得要求自該供應商或開發商等處獲取證據之權利。受害者透過證據揭露機制能夠較容易地尋求法律賠償,並得以找出究責的對象。   歐盟執委會認為以安全為導向的《人工智慧法》,為人工智慧訂定橫向規則,旨在降低風險和防止損害,但仍需要《人工智慧責任指令》之責任規定,以確保損害風險出現時,相關賠償得以被實現。但歐盟執委會仍選擇了較小的干預手段,《人工智慧責任指令》針對過失之責任制度進行改革,並未採取舉證責任倒置(a reversal of the burden of proof)之作法,而是透過「可推翻之推定」,一方面減輕受損害者之舉證責任,使受損害者得對影響人工智慧系統並產生過失或侵害行為之人提出損害賠償;另一方面賦予人工智慧之供應商或開發商等有機會推翻前揭造成損害之推定,以避免人工智慧系統之供應商或開發商面臨更高的責任風險,可能阻礙人工智慧產品和服務創新。

英國通過《資料(使用與存取)法》,提升資料使用的便利性

2025年6月19日,英國《2025年資料(使用與存取)法》(Data(Use and Access)Act 2025,下簡稱DUA法)正式生效。DUA法的宗旨是在《英國一般資料保護規則》(United Kingdom General Data Protection Regulation, UK GDPR)的基礎上,放寬在特定情形下執法機關、企業與個人使用資料的限制,以提升資料管理及使用的便利性。 DUA法預計將於2025年8月開始分階段實施,重點如下: (1) 放寬自動化決策(Automated Decision-Making, ADM)條件:依據UK GDPR規定,個人有不受純粹基於自動化處理且產生法律效果或類似重大影響之決策所拘束之權利。此項規範確立自動化決策之原則性禁止,僅於符合特定例外事由時始得為之。DUA法則放寬此一限制,未來企業只要確保有向當事人提供自動化決策的資訊、決策結果申訴的管道,以及得人為干預設計之保障措施以後,即可做出對個人有重大影響的自動化決策。 (2) 資料主體存取請求權(Subject Access Request, SAR)規範明確化:當事人有權向持有自身個資的單位請求查閱,DUA法明訂組織在收到請求後應回應的時間,而當事人請求的範圍也應合理且合於比例,避免組織浪費人力搜索不重要的資訊。 (3) 建立有效申訴管道:規定任何使用個人資料的組織都必須設立有效的申訴機制、提供電子化申訴管道、並回報處理結果,若訴求未獲得解決,當事人即可向英國資訊專員辦公室(Information Commissioner’s Office, ICO)提出申訴。 (4) 科學研究得採概括同意機制,商業研究亦屬適用範疇:DUA法明確指出,基於科學研究目的,研究人員於確保適當個人資料保護措施之前提下,得以概括同意(broad consent)方式取得當事人之同意,以利進行科學研究活動。DUA法並明確界定科學研究之範疇可涵蓋商業研究(commercial research),擴大其適用領域。 (5) 允許網站直接使用Cookie:網站與應用程式的儲存與存取技術(Storage and Access Technologies)在低風險情況下,可不取得使用者事前同意,即紀錄使用者瀏覽紀錄。 DUA法將於2025年8月開始分階段實施。如何在科技發展的便利性與個人資料的安全性間取得平衡,是當代社會不容忽視的議題,可持續觀察追蹤英國施行DUA法的成效供我國參考。

TOP