歐盟執委會公布《可信賴的AI政策及投資建議》

  歐盟執委會於2018年6月成立人工智慧高級專家組(The High-Level Expert Group on Artificial Intelligence, AI HLEG),主要負責兩項工作:(1)人工智慧倫理準則;(2)人工智慧政策與投資建議。並於2019年4月8日提出《可信賴的人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI),2019年6月公布之《可信賴的AI政策及投資建議》(Policy and Investment Recommendations for Trustworthy Artificial Intelligence)則是人工智慧高級專家組所交付之第二項具體成果。

  該報告主要分為兩大部分,首先第一部分是要透過可信賴的人工智慧建立對歐洲之正面影響,內容提及人工智慧應保護人類和社會,並促進歐洲公司各部門利用人工智慧及技術移轉,而公部門則扮演人工智慧增長及創新之催化劑,以確保歐洲具有世界一流之研究能力;第二部分則是影響歐洲各成員國建立可信賴之人工智慧,內容則提及將發展人工智慧相關基礎設施、教育措施、政策規範及資金投資,同時合法、有道德的使用各項數據。

  在本報告中關於法規面的建議則是進一步制定政策和監管框架,確保人工智慧在尊重人權、民主及創新下發展,因此將建立人工智慧政策制定者、開發者及用戶間的對話機制,若是遇到將對社會或是人類產生重大影響之敏感性人工智慧系統,除透過歐洲人工智慧聯盟(The European AI Alliance)進行對話之外,也需要在尊重各成員國之語言及文化多樣性下展開協調機制。另外,報告中也特別提到如果政府以「保護社會」為由建立一個普遍的人工智慧監督系統是非常危險的作法,政府應該承諾不對個人進行大規模監視,並在遵守法律及基本權利下進行人工智慧系統之發展。

相關連結
※ 歐盟執委會公布《可信賴的AI政策及投資建議》, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8274&no=66&tp=1 (最後瀏覽日:2025/11/21)
引註此篇文章
你可能還會想看
新加坡金融管理局發布《資料治理與管理實務》資訊文件

新加坡金融管理局(Monetary Authority of Singapore,下文簡稱MAS)於2024年5月29日發布《資料治理與管理實務》(Data Governance and Management Practices: Observations and Supervisory Expectations From Thematic Inspections)文件。此文件係根據MAS於2022年至2023年期間針對國內系統性重要銀行(Domestic Systemically Important Banks,下文簡稱D-SIBs)進行「資料治理與管理架構」的主題式檢查結果加以研究與分析而作成,其內容包含MAS對於資料治理的期望、受檢銀行的優良實踐範例及缺失,希望未參與檢查的銀行與金融機構也能根據這份文件進行適當的改善措施。 MAS在《資料治理與管理實務》文件中提出關於五大主題的監管期待,簡要說明如下: 1.董事會和高階管理層的監督: 董事會和高階管理層應加強監督資料治理。例如,定期向董事會報告資料管理領域的重要問題;高階管理層應即時獲得準確且完整的相關資訊,並對資料風險進行分析。 2.設置資料管理單位: 銀行應建立資料管理單位,並為資料管理辦公室提供明確的任務授權,以利其監測資料的品質。 3.資料品質之管理與控制: 銀行應建立資料品質管理架構與流程,以確保資料在整個生命週期中是有品質的。例如,建立有效控制資料流的機制;建立資料品質指標或計分卡;使用終端使用者運算工具(end-user computing tools)處理資料時,應納入風險評估和控制架構來管理。 4.資料品質控制資料之問題識別與升級: 銀行應制定升級標準和行動計畫,以改善資料品質。另外MAS也建議銀行應該要有強大且完整的資料譜系(data lineage)來辨識資料問題並將之改善。 5.BCBS 239原則之擴大適用:BCBS 239原則係巴賽爾銀行監理委員會(the Basel Committee on Banking Supervision)第239號規範:《有效風險資料聚合及風險報告原則》(Principles for effective risk data aggregation and risk reporting),適用於全球的系統性重要銀行(Global Systemically Important Banks),巴賽爾銀行監理委員會同時建議D-SIBs宜遵循此原則,因此MAS亦要求新加坡境內7家D-SIBs須遵守BCBS 239原則的相關規範。此外,MAS仍期待各銀行與金融機構可以擴大BCBS 239原則的適用範圍,例如在範圍內報告(in-scope reports,或稱主要風險報告)中納入反洗錢、稅務管理等面向。由於金融服務是一個由資料驅動的產業,資料已然是金融業重要的戰略資產。MAS期盼這份文件能夠讓所有銀行及金融機構提升其資料治理能力,並針對內部的問題進行改善。

流行音樂「取樣」之著作權概念

  流行音樂之抄襲,於我國著作權法之評價上,是以著作權法第91條第1項「擅自以重製之方法侵害他人之著作財產權者」來評價,我國智慧財產法院已有相關判決可供參酌,如智慧財產法院 103 年刑智上易字第 47 號刑事判決。惟流行音樂之創作,往往受到流行趨勢及過去其他作品的啟發,但將任何的風格上的模仿皆認為係著作權之侵害顯然並不恰當,而旋律相似度高達九成左右者屬於抄襲固然無庸置疑,然僅取樣(sampling)使用少數詞曲,用以表達概念或致敬之使用他人創作情形,其判斷標準,或可參考美國法院之判決見解。   2003年的Newton v. Diamond案中,第九巡迴上訴法院認可「微量取用」(de minimis use)原則,認為在有數十秒的取樣情形時,當一般聽眾不認為是挪用,即構成微量取用,並無實質近似,且若未取樣原曲之重要部分,亦不構成抄襲。但2005年時,聯邦第六巡迴上訴法院在Bridgeport Music, Inc. v. Dimension Films案中,對微量取用的情形提出「明確性規則」(bright- line rule),認為必須要取得授權方得取樣;而美國最高法院則在1994年的Campbell v. Acuff-Rose案中,認為雖有擷取他曲旋律,但整體曲風不同時,採取轉化性原則,認為構成合理使用。

落實完善數位資料管理機制,有助於降低AI歧視及資料外洩風險

落實完善數位資料管理機制, 有助於降低AI歧視及資料外洩風險 資訊工業策進會科技法律研究所 2023年07月07日 近年來,科技快速發展,AI(人工智慧)等技術日新月異,在公私部門的應用日益廣泛,而且根據美國資訊科技研究與顧問公司Gartner在2023年5月發布的調查指出,隨著由OpenAI開發的ChatGPT取得成功,更促使各領域對於AI應用的高度重視與投入[1],與此同時,AI歧視及資料外洩等問題,亦成為社會各界的重大關切議題。 壹、事件摘要 目前AI科技發展已牽動全球經濟發展,根據麥肯錫公司近期發布的《生成式人工智慧的經濟潛力:下一個生產力前沿(The next productivity frontier)》研究報告指出,預測生成式AI(Generative AI)有望每年為全球經濟增加2.6兆至4.4兆的經濟價值[2]。同時在美國資訊科技研究與顧問公司Gartner對於超過2500名高階主管的調查中,45%受訪者認為ChatGPT問世,增加其對於AI的投資。而且68%受訪者認為AI的好處大於風險,僅有5%受訪者認為風險大於好處[3]。然而有社會輿論認為AI的判斷依賴訓練資料,將可能複製人類偏見,造成AI歧視問題,而且若程式碼有漏洞或帳戶被盜用時,亦會造成資料外洩問題。 貳、重點說明 首先,關於AI歧視問題,以金融領域為例,近期歐盟委員會副主席Margrethe Vestager強調若AI用於可能影響他人生計的關鍵決策時,如決定是否能取得貸款,應確保申請人不受性別或膚色等歧視[4],同時亦有論者認為若用於訓練AI的歷史資料,本身存有偏見問題,則可能導致系統自動拒絕向邊緣化族群貸款,在無形之中加劇,甚至永久化對於特定種族或性別的歧視[5]。 其次,關於資料外洩問題,資安公司Group-IB指出因目前在預設情況下,ChatGPT將保存使用者查詢及AI回應的訊息紀錄,若帳戶被盜,則可能洩露機敏資訊。據統計在2022年6月至2023年5月間,在亞太地區有近41000個帳戶被盜,而在中東和非洲地區有近25000個帳戶被盜,甚至在歐洲地區也有近17000個帳戶被盜[6]。另外在2023年3月時,ChatGPT除了發生部分用戶能夠檢視他人聊天紀錄標題的問題外,甚至發生個人資料外洩問題,即用戶可能知悉他人的姓名、電子郵件,付款地址,信用卡到期日及號碼末四碼等資料[7]。 參、事件評析 對於AI歧視及資料外洩等問題,應透過落實完善數位資料治理與管理機制,以降低問題發生的風險。首先,在收集訓練資料時,為篩選適合作為模型或演算法基礎的資料,應建立資料評估或審查機制,減少或避免使用有潛在歧視問題的資料,以確保分析結果之精確性。 其次,不論對於訓練資料、分析所得資料或用戶個人資料等,均應落實嚴謹的資料保密措施,避免資料外洩,如必須對於資料進行標示或分類,並依照不同標示或分類,評估及採取適當程度的保密措施。同時應對於資料進行格式轉換,以無法直接開啟的檔案格式進行留存,縱使未來可能不慎發生資料外洩,任意第三人仍難以直接開啟或解析資料內容。甚至在傳送帳戶登入訊息時,亦應採取適當加密傳送機制,避免遭他人竊取,盜取帳戶或個人資料。 財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境完善,於2021年7月發布「重要數位資料治理暨管理制度規範(Essential Data Governance and Management System,簡稱EDGS)」,完整涵蓋數位資料的生成、保護與維護,以及存證資訊的取得、維護與驗證的流程化管理機制,故對於不同公私部門的AI相關資料,均可參考EDGS,建立系統性數位資料管理機制或強化既有機制。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Gartner, Gartner Poll Finds 45% of Executives Say ChatGPT Has Prompted an Increase in AI Investment (May 3, 2023), https://www.gartner.com/en/newsroom/press-releases/2023-05-03-gartner-poll-finds-45-percent-of-executives-say-chatgpt-has-prompted-an-increase-in-ai-investment (last visited June 30, 2023). [2]McKinsey, The economic potential of generative AI: The next productivity frontier (June 14, 2023), https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/the-economic-potential-of-generative-AI-the-next-productivity-frontier#introduction (last visited June 30, 2023). [3]Gartner, supra note 1. [4]Zoe Kleinman, Philippa Wain & Ashleigh Swan, Using AI for loans and mortgages is big risk, warns EU boss (June 14, 2023), https://www.bbc.com/news/technology-65881389 (last visited June 30, 2023). [5]Ryan Browne & MacKenzie Sigalos, A.I. has a discrimination problem. In banking, the consequences can be severe (June 23, 2023), https://www.cnbc.com/2023/06/23/ai-has-a-discrimination-problem-in-banking-that-can-be-devastating.html (last visited June 30, 2023). [6]Group-IB, Group-IB Discovers 100K+ Compromised ChatGPT Accounts on Dark Web Marketplaces; Asia-Pacific region tops the list (June 20, 2023), https://www.group-ib.com/media-center/press-releases/stealers-chatgpt-credentials/ (last visited June 30, 2023). [7]OpenAI, March 20 ChatGPT outage: Here’s what happened (Mar. 24, 2023),https://openai.com/blog/march-20-chatgpt-outage (last visited June 30, 2023).

歐盟提出人工智慧法律框架草案

  歐盟執委會於2020年2月公布《人工智慧白皮書》(AI White Paper)後,持續蒐集各方意見並提出新的人工智慧規範與行動。2021年4月針對人工智慧法律框架提出規範草案(Proposal for a Regulation on a European approach for Artificial Intelligence),透過規範確保人民與企業運用人工智慧時之安全及基本權利,藉以強化歐盟對人工智慧之應用、投資與創新。   新的人工智慧法律框架未來預計將統一適用於歐盟各成員國,而基於風險規範方法將人工智慧系統主要分為「不可接受之風險」、「高風險」、「有限風險」及「最小風險」四個等級。「不可接受之風險」因為對人類安全、生活及基本權利構成明顯威脅,故將被禁止使用,例如:政府進行大規模的公民評分系統;「高風險」則是透過正面例舉方式提出,包括:可能使公民生命或健康處於危險之中的關鍵基礎設施、教育或職業培訓、產品安全、勞工與就業、基本之私人或公共服務、可能會干擾基本權之司法應用、移民與庇護等面向,而高風險之人工智慧在進入市場之前須要先行遵守嚴格之義務,並進行適當風險評估及緩解措施等。「有限風險」則是指部分人工智慧應有透明度之義務,例如當用戶在與該人工智慧系統交流時,需要告知並使用戶意識到其正與人工智慧系統交流。最後則是「最小風險」,大部分人工智慧應屬此類型,因對公民造成很小或零風險,各草案並未規範此類人工智慧。   未來在人工智慧之治理方面,歐盟執委會建議各國現有管理市場之主管機關督導新規範之執行,且將成立歐洲人工智慧委員會(European Artificial Intelligence Board),推動人工智慧相關規範、標準及準則之發展,也將提出法規沙盒以促進可信賴及負責任之人工智慧。

TOP