加拿大政府由創新、科學和工業部長(Minister of Innovation, Science and Industry)代表,於2022年6月16日提交C-27號草案,內容包括聯邦的私部門隱私權制度更新,以及新訂的《人工智慧資料法案》(Artificial Intelligence and Data Act, 下稱AIDA)。如獲通過,AIDA將是加拿大第一部規範人工智慧系統使用的法規,其內容環繞「在加拿大制定符合國家及國際標準的人工智慧設計、開發與應用要求」及「禁止某些可能對個人或其利益造成嚴重損害的人工智慧操作行為」兩大目的。雖然AIDA的一般性規則相當簡單易懂,但唯有在正式發布這部包含絕大多數應用狀況的法規後,才能實際了解其所造成的影響。
AIDA為人工智慧監管所設立的框架包含以下六項:
(1)方法
以類似於歐盟《人工智慧法案》採用的方式,建立適用於人工智慧系統具「高影響力」的應用方式的規範,關注具有較高損害與偏見風險的領域。
(2)適用範圍
AIDA將適用於在國際與省際貿易及商業行動中,設計、發展或提供人工智慧系統使用管道的私部門組織。「人工智慧系統」的定義則涵蓋任何「透過基因演算法、神經網路、機器學習或其他技術,自動或半自動處理與人類活動相關的資料,以產生結果、做出決策、建議或預測」的技術性系統。
(3)一般性義務
I 評估及緩和風險的措施
負責人工智慧系統的人員應評估它是否是一個「高影響系統」(將在後續法規中詳細定義),並制定措施以辨識、評估與減輕使用該系統可能造成的傷害風險或具有偏見的結果。
II 監控
對該「高影響系統」負責的人員應建立準則,以監控風險緩解措施的遵守情況。
III 透明度
提供使用管道或管理「高影響系統」運作的人員應在公開網站上,以清晰的英語揭露
i 系統如何或打算如何使用。
ii 系統所生成果的類型及它所做出的決策、建議與預測。
iii 為辨識、評估與減輕使用該系統可能造成的傷害風險或具有偏見的結果,而制定的緩解措施。
iv 法規明定應揭露的其他訊息。
IV 記錄保存
執行受規範活動的人員應遵守紀錄保存要求。
V 通知
若使用該系統將導致或可能導致重大傷害,「高影響系統」的負責人應通知部門首長。
VI 匿名資料的使用
從事法案所規定的活動及在活動過程中使用或提供匿名資料的人員,必須依據規範制定關於(a)資料被匿名化處理的方式(b)被匿名化資料的使用與管理,兩方面的措施。
(4)部長命令
部門首長可以透過命令要求(a)製作紀錄(b)從事審計或聘請一位獨立的審計師執行(c)成立一個專責執行審計程序的組織(d)成立一個在有理由相信「高影響系統」之使用可能造成急迫重大傷害風險時負責進行終止或准許的組織。
(5)行政管理
AIDA為部門首長制定一項,可指定其所管轄部門中一名高級官員為「人工智慧與資料專員」的權利,其職責在協助部門首長管理與執行AIDA。
(6)罰則
違反AIDA規範之罰則主要為按公司、個人之收入衡量的罰款。特定嚴重狀況如以非法方式取得人工智慧訓練用資料、明知或故意欺騙大眾造成嚴重或心理傷害或財產上重大損失,亦可能判處刑事監禁。
2016年9月國際唱片業協會(International Federation of the Phonographic Industry,簡稱IFPI)、美國唱片產業協(Recording Industry Association of America,簡稱RIAA)及英國唱片產業協會(British Phonographic Industry,簡稱BPI)對全球最大的串流音樂翻錄網站「YouTube-mp3.org」展開法律行動,指控該網站違反YouTube的服務準則,且侵害音樂著作權。目前該案件由美國加州聯邦法院審理。 「YouTube-mp3.org」將串流音樂變成可供下載的音樂檔案,使用者只需在該網站(YouTube-mp3.org)複製貼上原YouTube的音樂影片網址,即能將其轉為MP3檔案下載使用。RIAA表示運營商透過該網站已經獲利數百萬美元的廣告收入,卻未支付任何金錢報酬給音樂家或著作權權利持有人,因此控告YouTube-mp3. org及該站負責人Philip Matesanz侵害著作權。BPI則表示,使用者得透過各種串流服務存取合法音樂,若對此非法轉載音樂的業者或行為不提出法律行動,將會影響合法的音樂串流服務。 另一方面,德國聯邦部門(German Federal Ministry ) 早在2011年時曾認定,從Youtube網站複製下載音樂為非商業之私人行為合法。而電子前線基金會(Electronic Frontier Foundation,簡稱EFF)對於英美唱片業協會要求法院消除此類型網站一事持否定看法,認為法律不應賦予著作權人或商標所有人修訂刪除網站的權力。
歐盟人工智慧辦公室發布「通用人工智慧實踐守則」草案,更進一步闡釋《人工智慧法》之監管規範.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 歐盟人工智慧辦公室(European AI Office)於2024 年 11 月 14 日發布「通用人工智慧實踐守則」(General-Purpose AI Code of Practice)草案,針對《人工智慧法》(Artificial Intelligence Act, AIA)當中有關通用人工智慧(General Purpose Artificial Intelligence, GPAI)之部分,更進一步闡釋相關規範。 本實踐守則草案主要分為4大部分,分別簡介如下: (1)緒論:描述本守則之4個基本目標,包含協助GPAI模型提供者履行義務、促進理解人工智慧價值鏈(value chain)、妥適保障智慧財產權、有效評估且緩解系統性風險(systemic risks)。 (2)GPAI模型提供者:有鑒於GPAI模型對於下游系統而言相當重要,此部分針對模型提供者訂定具體責任。不僅要求其提供訓練資料、模型架構、測試程序等說明文件,亦要求制定政策以規範模型用途防止濫用。另於智慧財產權方面,則要求GPAI模型提供者遵守「歐盟數位單一市場著作權指令」(Directive 2019/790/EC)之規定。 (3)系統性風險分類法(taxonomy):此部分定義GPAI模型之多種風險類別,諸如可能造成攻擊之資訊安全風險、影響民主之虛假資訊、特定族群之歧視、超出預期應用範圍之失控情形。 (4)高風險GPAI模型提供者:為防範系統性風險之危害,針對高風險GPAI模型提供者,本守則對其設立更高標準之義務。例如要求其於GPAI模型完整生命週期內持續評估風險並設計緩解措施。 本守則發布之次週,近千名利害關係人、歐盟成員國代表、國際觀察員即展開討論,透過參考此等回饋意見,預計將於2025年5月確定最終版本。