加拿大政府提交予國會《人工智慧資料法案》

  加拿大政府由創新、科學和工業部長(Minister of Innovation, Science and Industry)代表,於2022年6月16日提交C-27號草案,內容包括聯邦的私部門隱私權制度更新,以及新訂的《人工智慧資料法案》(Artificial Intelligence and Data Act, 下稱AIDA)。如獲通過,AIDA將是加拿大第一部規範人工智慧系統使用的法規,其內容環繞「在加拿大制定符合國家及國際標準的人工智慧設計、開發與應用要求」及「禁止某些可能對個人或其利益造成嚴重損害的人工智慧操作行為」兩大目的。雖然AIDA的一般性規則相當簡單易懂,但唯有在正式發布這部包含絕大多數應用狀況的法規後,才能實際了解其所造成的影響。

  AIDA為人工智慧監管所設立的框架包含以下六項:

(1)方法
以類似於歐盟《人工智慧法案》採用的方式,建立適用於人工智慧系統具「高影響力」的應用方式的規範,關注具有較高損害與偏見風險的領域。

(2)適用範圍
AIDA將適用於在國際與省際貿易及商業行動中,設計、發展或提供人工智慧系統使用管道的私部門組織。「人工智慧系統」的定義則涵蓋任何「透過基因演算法、神經網路、機器學習或其他技術,自動或半自動處理與人類活動相關的資料,以產生結果、做出決策、建議或預測」的技術性系統。

(3)一般性義務
I 評估及緩和風險的措施
負責人工智慧系統的人員應評估它是否是一個「高影響系統」(將在後續法規中詳細定義),並制定措施以辨識、評估與減輕使用該系統可能造成的傷害風險或具有偏見的結果。
II 監控
對該「高影響系統」負責的人員應建立準則,以監控風險緩解措施的遵守情況。
III 透明度
提供使用管道或管理「高影響系統」運作的人員應在公開網站上,以清晰的英語揭露
  i 系統如何或打算如何使用
  ii 系統所生成果的類型及它所做出的決策、建議與預測
  iii 為辨識、評估與減輕使用該系統可能造成的傷害風險或具有偏見的結果,而制定的緩解措施。
  iv 法規明定應揭露的其他訊息
IV 記錄保存
執行受規範活動的人員應遵守紀錄保存要求。
V 通知
若使用該系統將導致或可能導致重大傷害,「高影響系統」的負責人應通知部門首長。
VI 匿名資料的使用
從事法案所規定的活動及在活動過程中使用或提供匿名資料的人員,必須依據規範制定關於(a)資料被匿名化處理的方式(b)被匿名化資料的使用與管理,兩方面的措施。

(4)部長命令
部門首長可以透過命令要求(a)製作紀錄(b)從事審計或聘請一位獨立的審計師執行(c)成立一個專責執行審計程序的組織(d)成立一個在有理由相信「高影響系統」之使用可能造成急迫重大傷害風險時負責進行終止或准許的組織。

(5)行政管理
AIDA為部門首長制定一項,可指定其所管轄部門中一名高級官員為「人工智慧與資料專員」的權利,其職責在協助部門首長管理與執行AIDA。

(6)罰則
違反AIDA規範之罰則主要為按公司、個人之收入衡量的罰款。特定嚴重狀況如以非法方式取得人工智慧訓練用資料、明知或故意欺騙大眾造成嚴重或心理傷害或財產上重大損失,亦可能判處刑事監禁。

相關連結
你可能會想參加
※ 加拿大政府提交予國會《人工智慧資料法案》, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw//article-detail.aspx?d=8888&no=64&tp=1 (最後瀏覽日:2026/04/27)
引註此篇文章
你可能還會想看
歐盟執委會針對研究發展與創新通過新的國家補助綱要架構(state aid Framework for Research, Development and Innovation)

  根據歐盟條約,國家補助的行為原則上為條約所禁止,例外須經歐盟執委會核准。為使會員國得以事先瞭解哪些行為會被認為符合共同市場的精神,歐盟執委會在11月22日針對國家補助規則,通過了「研究發展與創新綱要架構」(Community framework for state aid for research and development and innovation,以下簡稱為R&D&I Framework),期能加速此類案件的審理效率。新綱要架構規定預計自2007年1月1日起開始生效適用。   根據新的綱要架構,會員國在規劃其國家補助措施之際,仍有義務通知執委會,經執委會確認或核准後,始符合歐盟相關法制。不過執委會認為,會員國在規劃國家補助措施時,如能依循綱要架構的指導說明,將可加速執委會的作業,提升審查效率。   過去僅有研發補助可例外被認為符合歐盟條約之精神,惟根據新的綱要架構,除了研發補助以外,創新補助亦是可以獲得豁免管制者。此外,綱要架構對特定有助於研究發展與創新的國家補助措施類型,提供了詳細的指導原則說明,這類國家補助措施可以帶動私人企業的研發與創新投資,有助於經濟成長與就業,因而可提升歐盟的競爭力。   R&D&I Framework同時也允許會員國視其國內發展狀況與特殊條件,設計符合該國之補助措施,前提是要符合可矯正特定市場失靈的檢視要件,且其所設計的措施可能帶來的優惠超出補助對競爭可能造成之損害。   另新綱要架構也指出阻礙研發與創新的主要市場失靈的因素如下:知識外溢(knowledge spill-overs)的效果有限、資訊不足與不對稱(imperfect and asymmetric information)、缺乏協調與網絡建構(coordination and network failures)。此外,新綱要架構中亦針對各類行的國家補助措施,逐項為會員國解說如何妥善運用,以符合補助規則(state aid rules)。這些政策措施如下: ●研發計畫(aid for R&D projects); ●技術可行性之補助研究(aid for technical feasibility studies); ●對中小型企業智慧財產權費用給予補助(aid for industrial property right costs for SMEs); ●對新創事業提供補助(aid for young innovative enterprises); ●對服務流程及組織功能創新所提供之補助(aid for process and organisational innovation in services); ●對智慧財產提供諮詢或支援服務之補助(aid for innovation advisory services and for innovation support services); ●對中小型企業因晉用高級專業人員所需之貸款提供融資的補助(aid for the loan of highly qualified personnel for SMEs); ●對創新育成事業提供的補助(aid for innovation clusters)。 新的綱要架構同時希望可以改善歐盟對國家補助的管控機制,集中資源於管理對可能破壞競爭的案件,故綱要架構對於具有高度破壞競爭與交易風險的鉅額案件,詳細說明了執委會如何進行個案評估。

梵諦岡與IBM、微軟聯合呼籲對臉部辨識等侵入性技術進行監管

  2020年2月28日梵諦岡教宗與兩大科技巨頭IBM及微軟聯合簽署「羅馬呼籲AI倫理道德」文件,支持制定人工智慧(AI)發展倫理與道德規範,並特別呼籲應針對臉部辨識等侵入性技術進行監管。在聯合文件上特別提及臉部識別技術潛在之濫用風險,例如警察會使用臉部辨識系統調查犯罪行為、《財富》500強公司使用AI審查求職者,這兩個例子均具有潛在且高度之風險,使用不正確或是具有偏見之AI判斷均可能會造成傷害。誠如方濟各在致辭中說:「人工智慧記錄個人資料,並使用於商業或政治目的,而且通常是在個人不知情之情況下,這種不對稱,將使少數人了解我們的一切,但我們卻對他們一無所知,這將使批判性思維和對自由的自覺變得遲鈍,不平等現象急遽擴大,知識和財富在少數人手中累積,將對民主社會構成重大風險。」   此次會議希望在國家與國際層面上共同努力促進AI道德規範,並根據以下原則來發展和使用人工智慧。第一,良好的創新:人工智慧系統必須是可理解得,並且在包容性方面必須考慮到所有人的需求,以便每個人都能受益。第二,責任:設計和實施人工智慧者必須承擔責任和保持透明度。第三,公正性:避免根據偏見進行創造或採取行動,從而維護人類平等和尊嚴。第四,可靠性:人工智慧系統必須能夠可靠的運行。第五,安全和隱私:人工智慧系統必須安全運行並尊重用戶的隱私。   目前尚不清楚其他技術公司是否會簽署該文件,以及簽署人將如何實施,但教宗與兩大科技巨頭史無前例的合作,為人工智慧未來發展方向提供遠見卓識,能更加深入的去思考AI的道德意涵以及它將如何與人類更好的合作、互動,互利共生,相輔相成。

日本經濟產業省公布「再生能源導入促進關聯制度改革小委員會報告書」

  日本經濟產業省「促進再生能源關連制度改革小委員會(再生可能エネルギー導入促進関連制度改革小委員会)」於2016年2月5日公布了報告書,該報告書集結了自2015年9月以來,共計13次的討論整理,未來FIT制度改革方向,將以此為根基。   提出該報告的目的在於,達成最加能源構成方案(エネルギーミックス)之目標,於2030年導入22-24%之再生能源,冀望在最大限度導入再生能源,並與抑制國民負擔之間調合並存。   該報告提出五大修正制度方針,分別簡述如下: (一)針對未運行案件對應修正認證制度 (1) 進一步加強撤銷認證制度之報告徵收及聽證程序。 (2) 創設新認證制度,應確認該發電事業的實施可能性後,才得認定為FIT。 (二)促進長期安定發電的配套措施 (1) 事業者應做適當的檢查及維修、發電量定期報告,制定廢棄及回收等應遵守事項。若有違反情事,主管機關得發出改善命令或是取消認定資格。 (2) 確認並遵守所涉及之土地使用條例、公告認定資訊、提供地方政府建構計畫內容。 (三)導入成本效率 (1) 設定中長期之「收購價格」目標。 (2) 以Top Runner等方式決定具備「成本效率」之收購價格,亦即以最佳方式選擇。 (3) 賦課金減免制度為一個可持續的機制,同時透過活用賦課金以確保基金,並確認對象事業的節能方案及對國際競爭力的影響等(檢討減免率)。 (四)擴大導入開發週期長(リードタイムの長い)之電力 (1) 開發週期較長之電力,預先於數年前決定認證案件之收購價格。 (2) 進行環評期間減半(通常為3~4年)等必要規制改革。 (3) 於FIT認證前,得申請接續系統。 (4) 針對不同電力的挑戰檢討對應的支援方法 (五)擴大導入電力系統改革之優勢 (1) 基於「廣域系統整備計畫」,計畫性地推動整備廣域系統。 (2) 對應區域系統之限制,公告系統資訊以及建設費用之單價。此外,繼續活用投標邀請規則(入札募集ルール),共同負擔系統升級費用。 (3) FIT收購義務人由零售事業者轉換為輸配電事業者,並促進全國區域間電力調配(広域融通)之順暢性。收購後之電力,得經由交易市場外直接輸送予零售事業者。 (4) 整備再生能源事業者間公平之輸出控制規則(公平な出力制御ルール)。

美國國家標準暨技術研究院發布「全球AI安全機構合作策略願景目標」,期能推動全球AI安全合作

美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)於2024年5月21日提出「全球AI安全機構合作策略願景目標」(The United States Artificial Intelligence Safety Institute: Vision, Mission, and Strategic Goals,下稱本策略願景),美國商務部(Department of Commerce)亦於2024年參與AI首爾峰會(AI Seoul Summit)期間對外揭示本策略願景,期能與其他國家攜手打造安全、可靠且可信賴之AI生態系。 由於AI可信賴與否往往取決於安全性,NIST指出當前AI安全所面臨的挑戰包含:一、欠缺對先進AI之標準化衡量指標;二、風險測試、評估、驗證及確效(Test, Evaluation, Validation, and Verification, TEVV)方法不健全;三、欠缺對AI建模後模型架構與模型表現間因果關係的了解;四、產業、公民社會、國內外參與者等在實踐AI安全一事上合作程度極為有限。 為因應上述挑戰並促進AI創新,NIST在本策略願景中擬定以下三大戰略目標:(1)推動AI安全科學發展:為建立安全準則與工具進行技術合作研究,並預先部署TEVV方法,以利評估先進AI模型之潛在風險與應對措施;(2)推展AI安全實務作法:制定並發布不同領域AI風險管理之相關準則與指標,以達到負責任設計、開發、部署與應用AI模型與系統之目的;(3)支持AI安全合作:促進各界採用前述安全準則、工具或指標,並推動全球合作,以發展國際通用的AI安全風險應對機制。

TOP