加拿大政府提交予國會《人工智慧資料法案》

  加拿大政府由創新、科學和工業部長(Minister of Innovation, Science and Industry)代表,於2022年6月16日提交C-27號草案,內容包括聯邦的私部門隱私權制度更新,以及新訂的《人工智慧資料法案》(Artificial Intelligence and Data Act, 下稱AIDA)。如獲通過,AIDA將是加拿大第一部規範人工智慧系統使用的法規,其內容環繞「在加拿大制定符合國家及國際標準的人工智慧設計、開發與應用要求」及「禁止某些可能對個人或其利益造成嚴重損害的人工智慧操作行為」兩大目的。雖然AIDA的一般性規則相當簡單易懂,但唯有在正式發布這部包含絕大多數應用狀況的法規後,才能實際了解其所造成的影響。

  AIDA為人工智慧監管所設立的框架包含以下六項:

(1)方法
以類似於歐盟《人工智慧法案》採用的方式,建立適用於人工智慧系統具「高影響力」的應用方式的規範,關注具有較高損害與偏見風險的領域。

(2)適用範圍
AIDA將適用於在國際與省際貿易及商業行動中,設計、發展或提供人工智慧系統使用管道的私部門組織。「人工智慧系統」的定義則涵蓋任何「透過基因演算法、神經網路、機器學習或其他技術,自動或半自動處理與人類活動相關的資料,以產生結果、做出決策、建議或預測」的技術性系統。

(3)一般性義務
I 評估及緩和風險的措施
負責人工智慧系統的人員應評估它是否是一個「高影響系統」(將在後續法規中詳細定義),並制定措施以辨識、評估與減輕使用該系統可能造成的傷害風險或具有偏見的結果。
II 監控
對該「高影響系統」負責的人員應建立準則,以監控風險緩解措施的遵守情況。
III 透明度
提供使用管道或管理「高影響系統」運作的人員應在公開網站上,以清晰的英語揭露
  i 系統如何或打算如何使用
  ii 系統所生成果的類型及它所做出的決策、建議與預測
  iii 為辨識、評估與減輕使用該系統可能造成的傷害風險或具有偏見的結果,而制定的緩解措施。
  iv 法規明定應揭露的其他訊息
IV 記錄保存
執行受規範活動的人員應遵守紀錄保存要求。
V 通知
若使用該系統將導致或可能導致重大傷害,「高影響系統」的負責人應通知部門首長。
VI 匿名資料的使用
從事法案所規定的活動及在活動過程中使用或提供匿名資料的人員,必須依據規範制定關於(a)資料被匿名化處理的方式(b)被匿名化資料的使用與管理,兩方面的措施。

(4)部長命令
部門首長可以透過命令要求(a)製作紀錄(b)從事審計或聘請一位獨立的審計師執行(c)成立一個專責執行審計程序的組織(d)成立一個在有理由相信「高影響系統」之使用可能造成急迫重大傷害風險時負責進行終止或准許的組織。

(5)行政管理
AIDA為部門首長制定一項,可指定其所管轄部門中一名高級官員為「人工智慧與資料專員」的權利,其職責在協助部門首長管理與執行AIDA。

(6)罰則
違反AIDA規範之罰則主要為按公司、個人之收入衡量的罰款。特定嚴重狀況如以非法方式取得人工智慧訓練用資料、明知或故意欺騙大眾造成嚴重或心理傷害或財產上重大損失,亦可能判處刑事監禁。

相關連結
你可能會想參加
※ 加拿大政府提交予國會《人工智慧資料法案》, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8888&no=64&tp=1 (最後瀏覽日:2026/05/10)
引註此篇文章
你可能還會想看
美國NSF研究基金申請之利益衝突管理機制簡介

美國NSF研究基金申請之利益衝突管理機制簡介 財團法人資訊工業策進會科技法律研究所 法律研究員 吳建興 106年07月17日 壹、事件摘要   國家科研計畫投入大量資金研發,旨在產出符合一定品質之研究成果,而無論其研究成功與否,需具備研究成果之客觀中立性[1]。為達成此目的,研究計畫申請時(含產學研究計畫),申請研究單位需已建立財務利益衝突管理機制,確保其研究人員能避免因其自身財務利益,而影響國家科研計畫所資助之研究客觀成果。以美國National Science Foundation Awards(以下簡稱:NSF)研究基金為例,NSF要求申請機關就其執行研究人員需揭露重大財務利益,並具備相關〈利益衝突管理機制〉[2]。以下將根據the NSF Proposal & Award Policies & Procedures Guide[3] (以下簡稱:PAPPG)簡介此機制內容及運作方式。 貳、NSF研究基金下財務利益衝突管理機制之特色 一、機制首重事前(Ex ante)揭露、審查及管理   美國NSF研究基金之機制,首重利益衝突管理,除非有不能管理之利益衝突存在,否則不會影響研究基金之申請。申請單位於NSF研究基金申請前即需管理利益衝突,主要參與研究計畫之人員,需事前揭露重大財務利益,並由申請機關審查有否利益衝突存在,若認定有財務利益衝突時,需提出管理利益衝突方法。 二、執行計畫研究人員需受利益衝突教育訓練義務。   NSF研究基金依據聯邦法規[4]規定,要求申請NSF研究基金之研究機關需在其計畫書中載明單位如何使參與研究人員接受教育訓練,明瞭何謂負責之研究行為(Responsible Conduct of Research:簡稱RCR),亦即如何避免研究上發生重大財務利益衝突行為。 三、重大財務利益[5]揭露需超越一定門檻   程序上需定義何為需揭露之重大財務利益,包括揭露主體、時機及揭露關係人範圍,以下分述之。   揭露主體:符合聯邦基金計畫下定義之主要研究計畫主持人(All Principal Investigators, Project Directors,Co- Principal Investigators)或其他負責研究計畫之設計、執行及報告之研究人員[6]。皆有填寫一份NSF財務揭露表單之義務。   揭露時機:於提出研究計畫書予NSF研究基金時,相關研究計畫主持人即需提交所需財務揭露表,而於執行計畫期間,研究計畫主持人或其配偶及同居人及未成年子女,仍有揭露新重大財務利益之義務[7]。   揭露關係人範圍:前揭揭露主體之配偶及同居人及未成年子女之所有超過美金一萬元之重大財務利益或持有受研究計畫影響公司之所有權利益超過百分之五皆須申報揭露。   NSF研究基金下所謂之重大財務利益概念係指[8]: 研究主持人及其配偶或未成年子女接受任何超過美金一萬元之合理市價股權利益(equity interest)(含股票、證券、其它所有權利益other ownership interests)或持有任何公司超過5%之所有權利益[9]。 研究主持人及其配偶或未成年子女,於申請前一年內從公司接受任何總計超過美金一萬元之薪資、智財權收入(含權利金)及其他收入[10]。 四、專人審查利益揭露及利益衝突需具備直接及重大性   NSF研究基金規定申請機關得指派一人或多人審查財務揭露[11]並認定是否存在利益衝突,審查型式可以委員會型式[12]呈現或由研究機關指派大學內院長等專人為之,無硬性規定。 關於如何認定重大財務利益衝突存在,NSF研究基金規定若審查人合理認定重大財務利益(SFI)可直接(Directly)或重大(Significantly)影響由NSF所資助研究計畫之設計、執行及報告時,即可認為存在利益衝突[13]。 五、利益衝突管理措施具多樣性,非只有當事人迴避一途   當審查人認定有利益衝突存在,審查人可決定採取限制措施或條件,以管理、降低及移除利益衝突[14]。其可能採取管理措施計包括但不限於:對公眾揭露重大財務利益、獨立審查人控管研究計畫、更改研究計畫、斷絕產生利益衝突關係、脫離重大財務利益及不參與研究計畫[15]。 參、事件評析 (一)美國NSF研究基金制度於有利益衝突時首重衝突管理,而目前臺灣科研計畫無所謂管理利益衝突概念,而採事前一律迴避義務[16]。   我國在研究計畫申請時就已採當然迴避規定,並要求計畫主持人及共同人主持人填寫利益迴避聲明書[17],但就研究執行期間發生利益衝突情況之處理方式並無規定[18]。   以今年2017科技基本法修法通過後為例,其立法意旨雖明確指出擬規範技術移轉的利益迴避,〈讓科研過程更加透明,以避免學研機構及人員在技轉時不慎踩線違法〉[19],然而此利益迴避機制仍是針對研發成果管理後端之技轉過程為利益迴避審查,尚未導入研發階段之利益衝突管理機制。目前子法的修訂仍正在進行中,且公布草案中有要求執行研究發展單位於其研發成果管理機制,建立技術移轉的〈利益迴避管理機制〉,惟對於研發前端的〈利益衝突管理機制〉仍未如NSF基金有一樣之制度建立[20]。 (二)目前臺灣對前端科研計畫之申請並無要求執行機關需對參與研究人員有財務利益衝突認識之教育與訓練   雖就目前科研計畫申請無要求,然在今年2017科技基本法修正後,在其子法預計要求執行研究發展單位需導入針對研發後端之技術移轉時所涉及利益迴避為教育訓練[21]。 (三)臺灣科研研究計畫申請前,仍需在研究前端導入利益衝突管理機制,目前修法僅預計在觸及技轉新創公司時,在研究成果管理機制中新增〈利益迴避管理機制〉,是從研究成果後端導入機制。   近年來,產學合作研究增加研究機關與產業之互動,然而此互動關係也漸趨複雜。為不影響產學研究成果之科學上之客觀性,研究計畫之財務利益衝突管理也需為適時調整。惟有加強此產學合作關係上透明性,確保利益衝突規範之遵行,且加強執行單位之自我監控,做好利益衝突管理及主責機關之監督,方可避免因日漸複雜的產學合作關係,使得其合作成果受到質疑[22]。若申請單位本身能提出財務利益衝突管理方法,落實預防性保護措施,自能保證研究成果之客觀性。   為達前述科研成果之客觀性,此利益衝突管理之導入時機,需在研發前端為之,也就是在研發申請前,執行研究發展單位就需為利益衝突管理。   臺灣似可參考NSF研究基金作法,由於其出自另一種思維,除消極防弊外,更積極將重大財務利益事前發現及揭露,並於揭露後判斷是否會直接及重大影響研究成果,若為肯定,則採行適當管理措施以減輕,消弭或管理利益衝突,達到研究成果客觀性目的。此項利益衝突管理思維,可為如何思考改進現行我國在研發計畫申請時只採當然迴避機制為參考。 [1]指科研計畫不受研究人員利益衝突而影響研究成果之科學上真實性。 [2] 本文用〈利益衝突管理機制〉文字來指稱NSF基金所設立之模式,在認定有重大利益衝突時,需採取一定措施來管理、減輕及移除利益衝突,迴避只是其中一種管理手段,與另一種〈利益迴避管理機制〉模式有所不同,該機制雖有利益揭露,及專人審查,然其審查結果只導向當事人需不需迴避之結果,無採取其他管理措施可言。 [3] Proposal & Award Policies & Procedures Guide, National Scence Foundation,https://www.nsf.gov/pubs/policydocs/pappg17_1/sigchanges.jsp (Last visited, June 14, 2017) [4]其法源依據為:Section 7009 of the America Creating Opportunities to Meaningfully Promote Excellence in Technology, Education, and Science (COMPETES) Act (42 USC 1862o–1) [5] Significant Financial Interest:以下簡稱SFI [6]A. Conflict of Interest Policies, 2., PAPPG, https://www.nsf.gov/pubs/policydocs/pappg17_1/pappg_9.jsp (Last visited, June 14, 2017) [7] 參NSF之財務揭露表 [8] 原文請參照:‘The term "significant financial interest" means anything of monetary value, including, but not limited to, salary or other payments for services (e.g., consulting fees or honoraria); equity interest (e.g., stocks, stock options or other ownership interests); and intellectual property rights (e.g., patents, copyrights and royalties from such rights).’. 參A. Conflict of Interest Policies, 2., PAPPG, https://www.nsf.gov/pubs/policydocs/pappg17_1/pappg_9.jsp (Last visited, June 14, 2017) [9]原文請參照:‘A.2.e. an equity interest that, when aggregated for the investigator and the investigator’s spouse and dependent children, meets both of the following tests: does not exceed $10,000 in value as determined through reference to public prices or other reasonable measures of fair market value, and does not represent more than a 5% ownership interest in any single entity;’由此段文字反推而出。 https://www.nsf.gov/pubs/policydocs/pappg17_1/pappg_9.jsp (Last visited, June 14, 2017) [10]原文請參照:‘A.2.f. salary, royalties or other payments that, when aggregated for the investigator and the investigator’s spouse and dependent children, are not expected to exceed $10,000 during the prior twelve-month period.’由此段文字反推而出。 https://www.nsf.gov/pubs/policydocs/pappg17_1/pappg_9.jsp (Last visited, June 14, 2017) [11] A. Conflict of Interest Policies, 4. PAPPG, https://www.nsf.gov/pubs/policydocs/pappg17_1/pappg_9.jsp (Last visited, June 14, 2017) [12] 加州柏克萊大學設有利益衝突委員會而史丹佛大學則由學院長指定專人審查。 [13] 原文為:‘‘A conflict of interest exists when the reviewer(s) reasonably determines that a significant financial interest could directly and significantly affect the design, conduct, or reporting of NSF-funded research or educational activities.’’ A. Conflict of Interest Policies, 4. supra note 6.(黑體字為本文所強調) [14]原文為:‘‘4.An organizational policy must designate one or more persons to review financial disclosures, determine whether a conflict of interest exists, and determine what conditions or restrictions, if any, should be imposed by the organization to manage, reduce or eliminate such conflict of interest.’’ A. Conflict of Interest Policies, 4. supra note 6. (黑體字為本文所強調) [15] A. Conflict of Interest Policies, 4. supra note 6. [16]參科技部補助產學合作研究計畫作業要點第一章通則之六、(迴避規定)以下。 [17]參科技部補助產學合作研究計畫書第三頁,https://www.most.gov.tw/folksonomy/list?menu_id=4dda1fd8-2aa9-412a-889b-9d34b50b6ccd&l=ch(最後瀏覽日:2017/06/14) [18] 經查科技部補助產學合作研究計畫作業要點無相關規定。 [19] 黃麗芸,〈科技基本法三讀,行政教職可兼新創董事〉,中央社,2017/05/26,https://finance.technews.tw/2017/05/26/administrative-staff-can-be-start-up-company-director/ (最後瀏覽日:2017/07/17) [20]請參照科技部公告〈政府科學技術研究發展成果歸屬及運用辦法部分條文修正草案對照表〉內修正條文第五條第三項之四、利益迴避、資訊揭露管理:受理資訊申報、審議利益迴避、公告揭露資訊 等程序,並落實人員、文件及資訊等保密措施。及修正條文第五條之一及修正條文第五條之二等相關條文。 https://www.most.gov.tw/most/attachments/61706f66-80b1-4812-9d6a-3fb140ab21f9 (最後瀏覽日:2017/07/17) (粗體字為本文強調所加)。 [21]請參照科技部公告〈從事研究人員兼職與技術作價投資事業管理辦法部分條文修正草案對照表〉內修正條文第七條學研機構應就依本辦法之兼職或技術作價投資設置管理單位,訂定迴避及資訊公開之管理機制,包括設置審議委員會、適用範圍、應公開揭露或申報事項、審議基準及作業程序、違反應遵行事項之處置、通報程序及教育訓練等。https://www.most.gov.tw/most/attachments/db227464-b0f8-4237-ae7c-d6eb712ff3f7 (最後瀏覽日:2017/07/17)(黑體字為本文強調所加)。 [22] 參美國聯邦衛生部(HHS)於2011年修改旗下PHS之研究基金申請規則之背景說明(42 CFR part 50, subpart F and 45 CFR part 94 (the 1995 regulations), that are designed to promote objectivity in PHSfunded research.)。Responsibility of Applicants for Promoting Objectivity in Research for Which Public Health Service Funding Is Sought and Responsible Prospective Contractors, 76 Fed. Reg.53,256,53,256(Aug. 25, 2011)(to be codified at 42 CFR Part 50 and 45 CFR Part 94).

新加坡研發可診斷及殺死癌細胞的奈米載體

  新加坡國立大學生物工程系科研人員宣佈,他們利用天然聚合物製成可以診斷癌細胞、又可殺死癌細胞的奈米載體。該系助理教授張勇相信,這是全球首次成功利用天然聚合物製成奈米顆粒。   研究甲殼素多年的張勇指出,從螃蟹、蝦殼中提煉出來的甲殼素,在實驗室內製成奈米顆粒的過程中,最困難的就是體積的控制,因為天然聚合物分子一般比較大。但最後仍突破瓶頸,以甲殼素研製出直徑約五十奈米的奈米顆粒,很容就可以被比它大一百倍到四百倍的人體細胞吸收。他說,這種利用天然聚合物製成的奈米顆粒,具備適合生物體、擁有生物功能等特性。   這些奈米顆粒將可用來裝載被稱為人工原子,以細微半導體材料製成的量子點和藥物。由於量子點受光源照射時會發光,不同大小量子點發出不同的光,發光時間可以維持幾個小時。因此把裝載量子點和藥物的奈米顆粒送入讓癌細胞吸收後,就可用光源照射,讓醫生可以辨認哪些是癌細胞,再把癌細胞殺死。目前其已與國大醫學院展開合作,在成肌細胞內注入裝載量子點的奈米顆粒,然後把成肌細胞移植到動物心臟,以進一步了解成肌細胞如何修復心臟組織。

美國聯邦交通部公布自駕車4.0政策文件

  美國交通部(Department of Transportation)於2020年1月8日公布「確保美國於自動駕駛技術之領導地位:自駕車4.0」(Ensuring American Leadership in Automated Vehicle Technologies : Automated Vehicles 4.0)政策文件,提出三個核心原則及相對應的策略規劃: 一、 使用者與社會的保護: 整合自動駕駛技術之安全性,包括防堵對自駕車性能之詐欺或誤導行為,以強化民眾對此新興技術的信心。 與自駕車技術開發商、製造商及服務商合作,預防與降低惡意使用自動駕駛技術所造成的公共安全威脅及犯罪,如制定網路安全標準、於運輸系統之資料傳輸媒介及資料庫設計能夠防止、反應、偵測潛在或已知危險之可行作法。 要求製造商於設計和結合相關自動駕駛技術時,採取具整體風險考量之方式,以確保資料安全性與公眾隱私保護,特別是針對駕駛者與乘客,以及第三人資料存取、分享及使用。 支援與協助自動駕駛技術研發,並透過提供多樣化商品和服務,滿足消費者需求並增加自駕車的普及性,使國人能使用安全且能負擔的移動載具。 二、 保障市場效率: 採取靈活及技術中立政策,由大眾選擇具經濟及有效率的運輸方案。 透過相關智慧財產法規,保護相關技術,並持續推動經濟增長之政策及提升國內技術創新競爭力。 收集與研擬國內外法規資料,並使自動駕駛技術產品及服務能夠與國際標準接軌。 三、 促進與協調各方合作: 積極協調全國自動駕駛技術研究、法規和政策,以利有效運用各機構資源。 參考國際間自動駕駛技術標準及監理法規,並與各州政府及業界共同研擬與整合自動駕駛技術至現行運輸系統標準與相關法規。

IBM提出「人工智慧日常倫理」手冊作為研發人員指引

  隨著人工智慧快速發,各界開始意識到人工智慧系統應用、發展過程所涉及的倫理議題,應該建構出相應的規範。IBM於2018年9月02日提出了「人工智慧日常倫理」(Everyday Ethics for Artificial Intelligence)手冊,其以明確、具體的指引做為系統設計師以及開發人員間之共同範本。作為可明確操作的規範,該手冊提供了問責制度、價值協同、可理解性等關注點,以促進社會對人工智慧的信任。 一、問責制度(Accountability)   由於人工智慧的決策將作為人們判斷的重要依據,在看似客觀的演算系統中,編寫演算法、定義失敗或成功的程式設計人員,將影響到人工智慧的演算結果。因此,系統的設計和開發團隊,應詳細記錄系統之設計與決策流程,確保設計、開發階段的責任歸屬,以及程序的可檢驗性。 二、價值協同(Value Alignment)   人工智慧在協助人們做出判斷時,應充分考量到事件的背景因素,其中包括經驗、記憶、文化規範等廣泛知識的借鑑。因此系統設計和開發人員,應協同應用領域之價值體系與經驗,並確保演算時對於跨領域的文化規範與價值觀之敏感性。同時,設計師和開發人員應使人工智慧系統得以「了解並認知」用戶的價值觀,使演算系統與使用者之行為準則相符。 三、可理解性(Explainability)   人工智慧系統的設計,應盡可能地讓人們理解,甚至檢測、審視它決策的過程。隨著人工智慧應用範圍的擴大,其演算決策的過程必須以人們得以理解的方式解釋。此係讓用戶與人工智慧系統交互了解,並針對人工智慧結論或建議,進而有所反饋的重要關鍵;並使用戶面對高度敏感決策時,得以據之檢視系統之背景數據、演算邏輯、推理及建議等。   該手冊提醒,倫理考量應在人工智慧設計之初嵌入,以最小化演算的歧視,並使決策過程透明,使用戶始終能意識到他們正在與人工智慧進行互動。而作為人工智慧系統設計人員和開發團隊,應視為影響數百萬人甚至社會生態的核心角色,應負有義務設計以人為本,並與社會價值觀和道德觀一致的智慧系統。

TOP