歐盟資通安全局公布《提升歐盟軟體安全性》研究報告

  歐盟資通安全局(European Union Agency for Cybersecurity, ENISA)於2020年4月25日以歐盟網路安全驗證框架(EU cybersecurity certification framework)檢視現行安全軟體開發及維護之方式與標準,並公布《提升歐盟軟體安全性》(Advancing Software Security in the EU)研究報告。歐盟資通安全局後續將以該研究報告協助產品、服務及軟體開發之驗證,並期望能夠成為執行歐盟網路安全驗證框架相關利害關係人之非強制性參考文件之一。

  本報告指出由於安全軟體已普遍應用於日常商品與服務當中,但目前針對軟體安全事故並無相對應之安全守則及技術,故為提高軟體安全層級並緩解目前已知之軟體安全威脅,應針對安全軟體開發及維護進行規範並驗證。

  報告中除了針對軟體安全提出其應具備之要素、概述現行安全軟體開發方式及標準之缺點外,亦提出若以歐盟網路安全驗證框架針對軟體開發方式進行驗證時可考量之一些實際做法,包括:

  1. 已驗證之資訊與通訊科技(Information and Communication Technology, ICT)產品、服務或流程供應商或製造商,針對資料庫之部署及維護,除探討防止資料洩漏之方式外,尚應考量產品、服務或流程驗證過程中,進行資料共享會面臨之安全威脅以及緩解之方式。
  2. 應與歐洲標準組織(European Standards Organizations, ESOs)及標準制定組織(Standards Developing Organization, SDOs)合作。
  3. 建立一些針對軟體開發、維護及操作準則以補充現有歐盟網路安全驗證方案(EU cybersecurity certification schemes)。
  4. 針對現行不一致之軟體開發及維護規範,應考量建立較寬鬆之合規性評估(conformity assessment)標準。
  5. 借鏡現有經驗和專業知識,促進歐盟網絡安全驗證框架之適用。

本文為「經濟部產業技術司科技專案成果」

相關連結
你可能會想參加
※ 歐盟資通安全局公布《提升歐盟軟體安全性》研究報告, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8522&no=55&tp=1 (最後瀏覽日:2025/12/04)
引註此篇文章
你可能還會想看
加拿大政府提交予國會《人工智慧資料法案》

  加拿大政府由創新、科學和工業部長(Minister of Innovation, Science and Industry)代表,於2022年6月16日提交C-27號草案,內容包括聯邦的私部門隱私權制度更新,以及新訂的《人工智慧資料法案》(Artificial Intelligence and Data Act, 下稱AIDA)。如獲通過,AIDA將是加拿大第一部規範人工智慧系統使用的法規,其內容環繞「在加拿大制定符合國家及國際標準的人工智慧設計、開發與應用要求」及「禁止某些可能對個人或其利益造成嚴重損害的人工智慧操作行為」兩大目的。雖然AIDA的一般性規則相當簡單易懂,但唯有在正式發布這部包含絕大多數應用狀況的法規後,才能實際了解其所造成的影響。   AIDA為人工智慧監管所設立的框架包含以下六項: (1)方法 以類似於歐盟《人工智慧法案》採用的方式,建立適用於人工智慧系統具「高影響力」的應用方式的規範,關注具有較高損害與偏見風險的領域。 (2)適用範圍 AIDA將適用於在國際與省際貿易及商業行動中,設計、發展或提供人工智慧系統使用管道的私部門組織。「人工智慧系統」的定義則涵蓋任何「透過基因演算法、神經網路、機器學習或其他技術,自動或半自動處理與人類活動相關的資料,以產生結果、做出決策、建議或預測」的技術性系統。 (3)一般性義務 I 評估及緩和風險的措施 負責人工智慧系統的人員應評估它是否是一個「高影響系統」(將在後續法規中詳細定義),並制定措施以辨識、評估與減輕使用該系統可能造成的傷害風險或具有偏見的結果。 II 監控 對該「高影響系統」負責的人員應建立準則,以監控風險緩解措施的遵守情況。 III 透明度 提供使用管道或管理「高影響系統」運作的人員應在公開網站上,以清晰的英語揭露   i 系統如何或打算如何使用。   ii 系統所生成果的類型及它所做出的決策、建議與預測。   iii 為辨識、評估與減輕使用該系統可能造成的傷害風險或具有偏見的結果,而制定的緩解措施。   iv 法規明定應揭露的其他訊息。 IV 記錄保存 執行受規範活動的人員應遵守紀錄保存要求。 V 通知 若使用該系統將導致或可能導致重大傷害,「高影響系統」的負責人應通知部門首長。 VI 匿名資料的使用 從事法案所規定的活動及在活動過程中使用或提供匿名資料的人員,必須依據規範制定關於(a)資料被匿名化處理的方式(b)被匿名化資料的使用與管理,兩方面的措施。 (4)部長命令 部門首長可以透過命令要求(a)製作紀錄(b)從事審計或聘請一位獨立的審計師執行(c)成立一個專責執行審計程序的組織(d)成立一個在有理由相信「高影響系統」之使用可能造成急迫重大傷害風險時負責進行終止或准許的組織。 (5)行政管理 AIDA為部門首長制定一項,可指定其所管轄部門中一名高級官員為「人工智慧與資料專員」的權利,其職責在協助部門首長管理與執行AIDA。 (6)罰則 違反AIDA規範之罰則主要為按公司、個人之收入衡量的罰款。特定嚴重狀況如以非法方式取得人工智慧訓練用資料、明知或故意欺騙大眾造成嚴重或心理傷害或財產上重大損失,亦可能判處刑事監禁。

情理法難兼顧,人工生殖法再掀波瀾

  陸軍上尉連長孫吉祥殉職後,未婚妻李幸育終於順利取精,不過能否接受人工受孕則仍有變數。由於 目前人工生殖法草案尚未過關,法律上尚無明確規範,且由於此種案件勢將引發若干後續問題,情理法難以兼顧,故衛生署國民健康局長吳浚明表示,目前擬採取專案審查方式,於週一﹙ 9月13日﹚邀集律師、醫學倫理、婦女團體、不孕症代表等專家,共同討論是否同意李幸育進行人工受孕。   在正式同意人工受孕之前,如果有醫師私下協助進行,衛生署將得以「其醫療行為違反醫學倫理」為由﹙醫師法第二十五條﹚,依同法二十五條之一予以懲戒。至於衛生署長侯勝茂先前表示,要檢討人工生殖法草案之具體內容,放寬「不孕夫妻而且雙方健在」的限制,吳浚明則坦承,此項指示的難度很高,因為目前連草案都還在等待立法院審查,如果等草案過了再行修正,退案修正一來一往間,將耗費相當時日,更何況死後取精可否進行人工生殖之情形更屬複雜,預期難在短期之間獲得定論。

韓國產學合作技術控股公司制度說明

韓國產學合作技術控股公司制度說明 科技法律研究所 法律研究員 曾文怡 101年7月24日 壹、事件摘要   韓國於於2012年5月14日修正其「技術控股公司成立申請程序規定」最新修正係,將共同成立技術控股公司之主體擴大到「研究機構」。韓國技術控股公司 (technology holding company) 制度係於2007年8月3日「產業教育振興及產學研合作促進法(以下簡稱產學研合作促進法)」修法所新增之制度。為落實產學研合作促進法,韓國教育科學技術部於2008年6月組成「產學研合作技術控股公司成立許可諮詢委員會」,同年8月,並依據「產業教育振興及產學研合作促進法施行規則」第3條第5項,制訂公告「技術控股公司成立申請程序規定」。截至2012年5月止,韓國已成立技術控股公司之大學共有17間,其所成立之子公司計有58間。 貳、重點說明 一、韓國技術控股公司成立條件及流程 (一)技術控股公司成立主體及條件   依韓國產學研合作促進法第2條第8款規定,所謂「技術控股公司」,係指大學之產學合作團 ( 類似我國大學技術移轉中心 ) 或研究機構,擁有總統令所規定之技術[1],並以技術事業化為目的而成立公司,並持有其它公司之股份,以支配該公司。依韓國產學研合作促進法第36條之2,成立技術控股公司之主體得為大學之產學合作團本身,或由各大學之產學合作團、學校法人[2]、研究機構共同成立。且技術控股公司應符合下列4項要件: 1.股份公司 2.公司幹部須未符合「國家公務員法」第33條第1項各款[3]規定之喪失資格事由 3.產學合作團 ( 包含共同成立技術控股公司之其它機關 ( 構 )) 以技術出資須超過資本額之30%,且擁有超過發行股份總數之50% 4.其它由總統令規定須具備之標準 ( 即全職專業人力1名以上及擁有專用空間 ) 具備上述條件後,應取得韓國教育科學技術部長之許可,始得成立。 (二)技術控股公司成立流程   欲成立技術控股公司之產學合作團,應向教育科學技術部提出「技術控股公司設立許可申請書」,若是兩個以上機關 ( 構 ) 共同成立技術控股公司之情形,則應選定一個代表機關 ( 構 ) 提出申請。除了提出申請書外,亦須提出「技術控股公司成立計畫書」以及「公司幹部之履歷」各1份,其中技術控股公司成立計畫書內應包含成立目的、出資內容及比例、事業計畫書 ( 包含技術控股公司擁有之人力及設施等相關事項 ) 。   教育科學技術部受理許可申請書後,須在30日內處理,並將結果通知申請人。若許可該技術控股公司之成立,則應發予申請人1份「技術控股公司成立許可書」;反之,則應告知申請人不予許可之事由。而 技術控股公司成立後,仍可另外成立子公司,但必須持有該子公司之20%以上股份;子公司得為「股份公司」或「有限公司」。 (三)技術控股公司業務範圍   技術控股公司除了負責公司營運業務外,亦包括其子公司之經營管理及其相關業務,此外亦可從事「產業教育振興及產學研合作促進法施行令」第43條規定之下列業務: 1.對子公司之技術及經營諮詢 2.支援子公司之企業公開 3.子公司和其它公司間之合併、子公司股份之全部或一部之賣出、子公司營業之全部或一部讓與、子公司之分割等相關業務 4.支援子公司之資金籌措 5.將技術控股公司本身擁有之技術移轉或事業化後給子公司,及協助子公司將其技術移轉、事業化 6.子公司之宣傳、教育訓練、行銷 7.與創業育成中心、實驗室、產學研合作促進法第37條第1項之合作研究所、產業技術園區或校區內設置營運之企業及研究所之相互合作 8.技術控股公司將其擁有之技術移轉予企業 9.為將技術控股公司擁有之技術或出資予子公司之技術事業化,組成投資基金 10.中介該產業教育機構或研究機構擁有之技術移轉至企業並事業化 11.對該產業教育機構和子公司以外之其它產業教育機構及其它公司之技術經營及教育訓練之支援 (四)利潤分配之使用限制   大學之產學合作團應將從技術控股公司接受之利潤或其他收入,使用在其固有業務以及大學研究活動上;又,若技術控股公司係大學之產學合作團與研究機構共同成立的話,研究機構自技術控股公司接受之利潤或其他收入,應再投資於其研究開發活動或技術控股公司等與研究開發相關用途上。 二、韓國技術控股公司成立現況   截至2012年5月止,韓國已成立技術控股公司之大學共有17間[4],其所成立之子公司計有58間。據了解,目前尚有成均館大學、韓國科學技術院 (Korea Advanced Institute of Science & Technology, KAIST) 、加圖立大學、首爾市立大學等大學正著手進行設立技術控股公司的申請準備。 參、事件評析 一、技術控股公司制度目的在於促進技術移轉及商品化,以控股收益再投資大學研發活動   韓國於2007年修訂產學研合作促進法,新增「技術控股公司」制度,賦予大學直接成立技術控股公司的法律依據。相較於大學之產學合作團,主要係將其研發之技術移轉至企業,從企業獲得單純之收益 ( 技轉費用及權利金 ) ,有所差別。因為技術控股公司設立目的在於促使其積極利用所有之技術,不僅從事技術移轉業務,更得將技術予以商品化,以創造控股收益並再投資於研發活動,使既有技術得予以追加開發。如此一來,技術控股公司不僅提高大學的研發能力,亦增加大學資金來源,藉以促進創新技術之研發,提升研究人員之創新意願。 二、韓國大學之產學合作團具有獨立法人格,得成立技術控股公司   依韓國產學研合作促進法規定,得設立技術控股公司之主體為大學之「產學合作團」,且被賦予法人資格。所稱產學合作團,依韓國產學研合作促進法規定,主要負責促進技術移轉及商品化、智慧財產權取得與管理、與企業簽訂授權契約等業務,業務範圍與我國大學之技術移轉中心相當。   依我國公司法第128條第3項第2款規定,法人以其自行研發之專門技術或智慧財產權作價投資時,得為發起人。但我國國立大學目前法律定位仍屬三級行政機關,且性質上屬於公營造物,未若私立大學屬於財團法人,並無獨立法人人格,遑論大學所設之技術移轉中心,僅為學校內部專責單位,因此國立大學不符合公司法第128條第3項規定之以其自行研發之專門技術或智慧財產權作價投資之法人之條件,國立大學無法透過公司法第128條第3項規定為發起人,設立技術控股公司。故若未協助其突破法令限制,仍無法仿效韓國大學具備法人格之產學合作團,依法得成立技術控股公司。 資料來源: 1.韓國教育科學技術部,http://www.mest.go.kr/,最後瀏覽日:2012年5月25日 2.〈2010大學產學合作白皮書 (2011年版本) 〉,韓國教育科學技術部,2012年4月4日,http://www.mest.go.kr/web/1011/ko/board/view.do?bbsId=87&boardSeq=28984,最後瀏覽日:2012年6月13日 3.iusm每日新聞,2012年5月24日,http://www.iusm.co.kr/news/articleView.html?idxno=248734,最後瀏覽日:2012年6月13日 [1]依產業教育振興及產學研合作促進法施行令第3條規定,作為事業化對象的技術範圍,係指符合下列其中一款者。 1.依「專利法」、「新型專利法」、「設計保護法」登記或申請中之發明專利、新型專利、設計專利及其它智慧財產 2.第1款技術累積之資本財 3.第1款或第2款之技術資訊 4.具移轉、商品化可能性之技術性、科學性或產業性Know how [2]此處限於該學校無產學合作團之情形。 [3]韓國國家公務員法第33條:「符合下列其中一款者,不得任用為公務員。 1.禁治產者或限制治產者 2.受破產宣告且未恢復權利者 3.接受拘役以上徒刑之宣告且執行完畢,或確定後尚未執行,不超過5年者 4.接受拘役以上徒刑之宣告,刑之執行猶豫期間結束之日起,不超過2年者 5.接受拘役以上徒刑之宣告猶豫,尚在宣告猶豫期間者 6.依法院判決或其它法律規定喪失或中止權利者 6之2公務員在職期間,與其職務相關,犯『刑法』第355條及第356條之罪,受300萬元以上之罰金刑,且其刑確定不超過2年者 7.因懲戒受到罷免處分時起,不超過5年者 8.因懲戒受到解職處分時起,不超過3年者」。 [4]依技術控股公司成立時間順序分別為:漢陽大學、首爾大學、三育大學、西江大學、江原地區大學聯合、慶熙大學、高麗大學、仁川大學、釜山大學、東國大學、檀國大學、東新大學、朝鮮大學、全南大學、延世大學、全北地區大學聯合、東亞大學。

通用人工智慧的透明揭露標準--歐盟通用人工智慧模型實踐準則「透明度 (Transparency)」章

通用人工智慧的透明揭露標準--歐盟通用人工智慧模型實踐準則「透明度 (Transparency)」章 資訊工業策進會科技法律研究所 2025年08月06日 歐盟人工智慧辦公室(The European AI Office,以下簡稱AIO) 於2025年7月10日提出《人工智慧法案》(AI Act, 以下簡稱AIA法案)關於通用型人工智慧實作的準則[1] (Code of Practice for General-Purpose AI Models,以下簡稱「GPAI實踐準則」),並於其中「透明度 (Transparency)」章節[2],針對歐盟AIA法案第53條第1項(a)、(b)款要求GPAI模型的提供者必須準備並提供給下游的系統整合者 (integrator) 或部署者 (deployer) 足夠的資訊的義務,提出模型文件(Model Documentation)標準與格式,協助GPAI模型提供者制定並更新。 壹、事件摘要 歐盟為確保GPAI模型提供者遵循其AI法案下的義務,並使AIO能夠評估選擇依賴本守則以展現其AI法案義務合規性的通用人工智慧模型提供者之合規情況,提出GPAI實踐準則。當GPAI模型提供者有意將其模型整合至其AI系統的提供者(以下稱「下游提供者」)及應向AIO提供相關資訊,其應依透明度章節要求措施(詳下述)提出符合內容、項目要求的模型文件,並予公開揭露且確保已記錄資訊的品質、安全性及完整性 (integrity)。 由於GPAI模型提供者在AI價值鏈 (AI value chain) 中具有特殊角色和責任,其所提供的模型可能構成一系列下游AI系統的基礎,這些系統通常由需要充分了解模型及其能力的下游提供者提供,以便將此類模型整合至其產品中並履行其AIA法案下的義務。而相關資訊的提供目的,同時也在於讓AIO及國家主管機關履行其AI法案職責,特別是高風險AI的評估。 AIO指出完整填寫與定期更新模型文件,是履行AIA法案第53條義務的關鍵步驟。GPAI模型提供者應建立適當的內部程序,確保資訊的準確性、時效性及安全性。模型文件所含資訊的相關變更,包括同一模型的更新版本,同時保留模型文件的先前版本,期間至模型投放市場後10年結束。 貳、重點說明 一、制定並更新模型文件(措施1.1) 透明度 (Transparency)章節提供模型文件的標準表格,做為GPAI實踐準則透明度章節的核心工具,協助GPAI模型提供者有系統性的整理並提供AIA法案所要求的各項資訊。表格設計考量了不同利害關係人的資訊需求,確保在保護商業機密的同時,滿足監管透明度的要求。 前揭記錄資訊依其應提供對象不同,各欄位已有標示區分該欄資訊係用於AI辦公室 (AIO)、國家主管機關 (NCAs) 或下游提供者 (DPs)者。適用於下游提供者的資訊,GPAI模型提供者應主動提供(公開揭露),其他則於被請求時始須提供(予AIO或NCAs)。 除基本的文件最後更新日期與版本資訊外,應提供的資訊分為八大項,內容應包括: (一)、一般資訊General information 1.模型提供者法律名稱(Legal name) 2.模型名稱(Model name):模型的唯一識別碼(例如 Llama 3.1-405B),包括模型集合的識別碼(如適用),以及模型文件涵蓋之相關模型公開版本的名稱清單。 3.模型真實性(Model authenticity):提供明確的資訊例如安全雜湊或URL端點,來幫助使用者確認這個模型的來源 (Provenance)、是否真實性未被更動 (Authenticity)。 4.首次發布日(Release date)與首次投放歐盟市場的日期(Union market release date)。 5.模型依賴(Model dependencies):若模型是對一個或多個先前投放市場的GPAI模型進行修改或微調的結果,須列出該等模型的名稱(及相關版本,如有多個版本投放市場)。 (二)、模型屬性(Model properties) 1.Model architecture 模型架構:模型架構的一般描述,例如轉換器架構 (transformer architecture)。 2.Design specifications of the model 模型設計規格:模型主要設計規格的一般描述,包括理由及所作假設。 3.輸出/入的模式與其最大值(maximum size):說明係文字、影像、音訊或視訊模式與其最大的輸出/入的大小。 4.模型總參數量(model size)與其範圍(Parameter range):提供模模型參數總數,記錄至少兩個有效數字,例如 7.3*10^10 參數,並勾選參數(大小)所在範圍的選項,例如:☐>1T。 (三)、發佈途徑與授權方式(Methods of distribution and licenses) 1.發佈途徑Distribution channels:列舉在歐盟市場上使用模型的採用法,包括API、軟體套裝或開源倉庫。 2.授權條款License:附上授權條款鏈結或在要求時提供副本;說明授權類型如: 開放授權、限制性授權、專有授權;列出尚有提供哪些相關資源(如訓練資料、程式碼)與其存取方式、使用授權。 (四)、模型的使用(Use) 1.可接受的使用政策Acceptable Use Policy:附上可接受使用政策連結或副本或註明無政策。 2.預期用途或限制用途Intended uses:例如生產力提升、翻譯、創意內容生成、資料分析、資料視覺化、程式設計協助、排程、客戶支援、各種自然語言任務等或限制及/或禁止的用途。 3.可整合AI系統之類型Type and nature of AI systems:例如可能包括自主系統、對話助理、決策支援系統、創意AI系統、預測系統、網路安全、監控或人機協作。 4.模型整合技術方式Technical means for integration:例如使用說明、基礎設施、工具)的一般描述。 5.所需軟硬體資源Required hardware與software:使用模型所需任何軟硬體(包括版本)的描述,若不適用則填入「NA」。 (五)、訓練過程(Training process) 1.訓練過程設計規格(Design specifications of the training process):訓練過程所涉主要步驟或階段的一般描述,包括訓練方法論及技術、主要設計選擇、所作假設及模型設計最佳化目標,以及不同參數的相關性(如適用)。例如:「模型在人類偏好資料集上進行10個輪次的後訓練,以使模型與人類價值觀一致,並使其在回應使用者提示時更有用」。 2.設計決策理由(Decision rationale):如何及為何在模型訓練中做出關鍵設計選擇的描述。 (六)、用於訓練、測試及驗證的資料資訊(Information on the data used for training, testing, and validation) 1.資料類型樣態Data type/modality:勾選樣態包括文字、影像、音訊、視訊或說明有其他模態。 2.資料來源Data provenance:勾選來源包括網路爬蟲、從第三方取得的私人非公開資料集、使用者資料、公開資料集、透過其他方式收集的資料、非公開合成(Synthetic )資料等。 3.資料取得與選取方式(How data was obtained):取得及選擇訓練、測試及驗證資料使用方法的描述,包括用於註釋資料的方法及資源,以及用於生成合成資料的模型及方法。從第三方取得的資料,如果權利取得方式未在訓練資料公開摘要中披露,應描述該方式。 4.資料點數量Number of data points:說明訓練、測試及驗證資料的大小(資料點數量),連同資料點單位的定義(例如代幣或文件、影像、視訊小時或幀)。 5.資料範疇與特性(Scope and characteristics):指訓練、測試及驗證資料範圍及主要特徵的一般描述,如領域(例如醫療保健、科學、法律等)、地理(例如全球、限於特定區域等)、語言、模式涵蓋範圍。 6.資料清理處理方法(Data curation methodologies):指將獲取的資料轉換為模型訓練、測試及驗證資料所涉及的資料處理一般描述,如清理(例如過濾不相關內容如廣告)、資料擴增。 7.不當資料檢測措施(Measures for unsuitability):在資料獲取或處理中實施的任何方法描述(如有),以偵測考慮模型預期用途的不適當資料源,包括但不限於非法內容、兒童性虐待材料 (CSAM)、非同意親密影像 (NCII),以及導致非法處理的個人資料。 8.可識別偏誤檢測措施(Measures to detect identifiable biases):描述所採取的偵測與矯正訓練資料存在偏誤的方法。 (七)、訓練期間的計算資源(Computational resources (during training)) 1.訓練時間(Training time):所測量期間及其時間的描述。 2.訓練使用的計算量(Amount of computation used for training):說明訓練使用的測量或估計計算量,以運算表示並記錄至其數量級(例如 10^24 浮點運算)。 3.測量方法論(Measurement methodology):描述用於測量或估計訓練使用計算量的方法。 (八)、訓練及推論的能源消耗(Energy consumption (during training and inference)) 1.訓練耗能(Amount of energy used for training)及其計量方法:說明訓練使用的測量或估計能源量,以百萬瓦時表示(例如 1.0x10^2 百萬瓦時)。若模型能源消耗未知,可基於所使用計算資源的資訊估計能源消耗。若因缺乏計算或硬體提供者的關鍵資訊而無法估計訓練使用能源量,提供者應披露所缺乏的資訊類型。 2.推論運算耗能的計算基準 (Benchmarked amount of computation used for inference1)及其方法:以浮點運算表示方式(例如 5.1x10^17 浮點運算)說明推論運算的基準計算量,並提供計算任務描述(例如生成100000個代幣Token)及用於測量或估計的硬體(例如 64個Nvidia A100)。 二、提供GPAI模型相關資訊(措施1.2) 通用人工智慧模型投放市場時,應透過其網站或若無網站則透過其他適當方式,公開揭露聯絡資訊,供AIO及下游提供者請求取得模型文件中所含的相關資訊或其他必要資訊,以其最新形式提供所請求的資訊。 於下游提供者請求時,GPAI模型提供者應向下游提供者提供最新模型文件中適用於下游提供者的資訊,在不影響智慧財產權及機密商業的前提下,對使其充分了解GPAI模型的能力及限制,並使該等下游提供者能夠遵循其AIA法案義務。資訊應在合理時間內提供,除特殊情況外不得超過收到請求後14日。且該資訊的部分內容可能也需要以摘要形式,作為GPAI模型提供者根據AIA法案第53條第1項(d)款必須公開提供的訓練內容摘要 (training content summary) 的一部分。 三、確保資訊品質、完整性及安全性(措施1.3) GPAI模型提供者應確保資訊的品質及完整性獲得控制,並保留控制證據以供證明遵循AIA法案,且防止證據被非預期的變更 (unintended alterations)。在制定、更新及控制資訊及記錄的品質與安全性時,宜遵循既定協議 (established protocols) 及技術標準 (technical standards)。 參、事件評析 一、所要求之資訊完整、格式標準清楚 歐盟AGPAI實踐準則」的「透明度 (Transparency)」提供模型文件的標準表格,做為GPAI實踐準則透明度章節的核心工具,從名稱、屬性、功能等最基本的模型資料,到所需軟硬體、使用政策、散佈管道、訓練資料來源、演算法設計,甚至運算與能源消秏等,構面完整且均有欄位說明,而且部分欄位直接提供選項供勾選,對於GPAI模型提供者提供了簡明容易的AIA法案資訊要求合規做法。 二、表格設計考量不同利害關係人的資訊需求 GPAI實踐準則透明度章節雖然主要目的是為GPAI模型提供者對由需要充分了解模型及其能力的下游提供者提供資訊,以便其在產品履行AIA法案下的義務。但相關資訊的提供目的,同時也在於讓AIO及國家主管機關履行其AI法案職責,特別是高風險AI的評估。因此,表格的資訊標示區分該欄資訊係用於AI辦公室 (AIO)、國家主管機關 (NCAs) 或下游提供者 (DPs)者,例如模型的訓練、資料清理處理方法、不當內容的檢測、測試及驗證的資料來源、訓練與運算的能秏、就多屬AIO、NCAs有要求時始須提供的資料,無須主動公開也兼顧及GPAI模型提供者的商業機密保護。 三、配套要求公開並確保資訊品質 該準則除要求GPAI模型提供者應記錄模型文件,並要求於網站等適當地,公開提供下游提供者請求的最新的資訊。而且應在不影響智慧財產權及機密商業的前提下,提供其他對使其充分了解GPAI模型的能力及限制的資訊。同時,為確保資訊的品質及完整性獲得控制,該準則亦明示不僅應落實且應保留證據,以防止資訊被非預期的變更。 四、以透明機制落實我國AI基本法草案的原則 我國日前已由國科會公告人工智慧基本草案,草案揭示「隱私保護與資料治理」、「妥善保護個人資料隱私」、「資安與安全 」、「透明與可解釋 」、「公平與不歧視」、「問責」原則。GPAI實踐準則透明度章節,已提供一個重要的啟示—透過AI風險評測機制,即可推動GPAI模型資訊的揭露,對相關資訊包括訓練資料來源、不當內容防止採取做一定程度的揭露要求。 透過相關資訊揭露的要求,即可一定程度促使AI開發提供者評估認知風險,同時採取降低訓練資料、生成結果侵權或不正確的措施。即便在各領域作用法尚未能建立落實配套要求,透過通過評測的正面效益,運用AI風險評測機制的資訊提供要求,前揭草案揭示的隱私、著作、安全、問責等原則,將可以立即可獲得一定程度的實質落實,緩解各界對於AI侵權、安全性的疑慮。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]The European AI Office, The General-Purpose AI Code of Practice, https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai 。(最後閱覽日:2025/07/30) [2]The European AI Office, Code of Practice for General-Purpose AI Models–Transparency Chapter, https://ec.europa.eu/newsroom/dae/redirection/document/118120 。(最後閱覽日:2025/07/30)

TOP