日本經產省公布AI、資料利用契約指引

  伴隨IoT和AI等技術發展,業者間被期待能合作透過資料創造新的附加價值及解決社會問題,惟在缺乏相關契約實務經驗的狀況下,如何締結契約成為應首要處理的課題。

  針對上述狀況,日本經濟產業省於2017年5月公布「資料利用權限契約指引1.0版」(データの利用権限に関する契約ガイドラインVer1.0),隨後又設置AI、資料契約指引檢討會(AI・データ契約ガイドライン検討会),展開後續修正檢討,在追加整理資料利用契約類型、AI開發利用之權利關係及責任關係等內容後,公布「AI、資料利用契約指引草案」(AI・データの利用に関する契約ガイドライン(案)),於2018年4月27日至5月26日間公開募集意見,並於2018年6月15日正式公布「AI、資料利用契約指引」(「AI・データの利用に関する契約ガイドライン)。

  「AI、資料利用契約指引」分為資料篇與AI篇。資料篇整理資料契約類型,將資料契約分為「資料提供型」、「資料創造型」和「資料共用型(平台型)」,說明個別契約架構及主要的法律問題,並提示契約條項及訂定各條項時應考慮的要點,希望能達成促進資料有效運用之目的。

  AI篇說明AI技術特性和基本概念,將AI開發契約依照開發流程分為(1)評估(assessment)階段;(2)概念驗證(Proof of Concept, PoC)階段;(3)開發階段;(4)進階學習階段,並針對各階段契約方式和締結契約時應考慮的要點進行說明,希望達成促進AI開發利用之目的。

本文為「經濟部產業技術司科技專案成果」

相關連結
相關附件
※ 日本經產省公布AI、資料利用契約指引, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8073&no=57&tp=1 (最後瀏覽日:2026/05/16)
引註此篇文章
你可能還會想看
日本內閣府研議「網路資訊安全判斷基準草案」並將作為未來機關處理共同標準

  日本內閣府網路安全戰略本部(サイバーセキュリティ戦略本部)於2017年7月13日第14次會議中提出對2020年後網路安全相關戰略案之回顧(2020年及びその後を見据えたサイバーセキュリティの在り方(案)-サイバーセキュリティ戦略中間レビュー-),針對網路攻擊嚴重程度,訂立網路安全判斷基準(下稱本基準)草案。對於現代網路攻擊造成之嚴重程度、資訊之重要程度、影響範圍等情狀,為使相關機關可以做出適當之處理,進而可以迅速採取相應之行動,特制訂強化處理網路攻擊判斷基準草案。其後將陸續與相關專家委員討論,將於2017年年底發布相關政策。   本基準設置目的:為了於事故發生時,具有視覺上立即判斷標準,以有助於事故相關主體間溝通與理解,並可以做為政府在面對網路侵害時判斷之基準,成為相關事件資訊共享之體制與方法之基準。   本基準以侵害程度由低至高,分為第0級至第5級。第0級(無)為無侵害,乃對國民生活無影響之可能性;第1級(低)為對國民生活影響之可能性低;第2級(中)為對國民生活有影響之可能性;第3級(高)為明顯的對國民生活影響,並具高可能性;第4級(重大)為顯著的對國民生活影響,並具高可能性;第5級(危機)為對國民生活廣泛顯著的影響,並具有急迫性。除了對國民及社會影響,另外在相關系統(システム)評估上,在緊急狀況時,判斷對重要關鍵基礎設施之安全性、持續性之影響時,基準在第0級至第4級;平常時期,判斷對關鍵基礎設施之影響,只利用第0級至第3級。   本次報告及相關政策將陸續在一年內施行,日本透過內閣府網路安全戰略本部及總務省、經濟產業省與相關機構及單位之共同合作,按照統一之標準採取措施,並依據資訊系統所收集和管理之資料作出適當的監控及觀測,藉由構建之資訊共享系統,可以防止網絡攻擊造成重大的損失,並防止侵害持續蔓延及擴大,同時也將為2020年東京奧運會之資訊安全做準備。我國行政院國家資通安全會報目前公布了「國家資通安全通報應變作業綱要」,而日本以國民生活之影響程度標準列成0至5等級,其區分較為精細,且有區分平時基準及非常時期基準等,日本之相關標準可作為綱要修正時之參考。

從日本政策看我國音樂產業海外拓展之必要性及有效作法

美國FDA更新軟體預驗證計畫,以明確化數位健康科技的軟體器材審查流程

  美國食品及藥物管理局(the U.S. Food and Drug Administration)於2019年1月更新「軟體預驗證計畫(Software Precertification Program)」及公布該計畫「2019測試方案(2019 Test Plan)」與「運作模式初版(A Working Model v1.0)」,使審查流程更加明確及具有彈性,並促進技術創新發展。   在更新計畫中,FDA聚焦於審查架構的說明,包含考量納入醫療器材新審查途徑(De Novo pathway)及優良評估流程(Excellence Appraisal process)的審查內涵。在優良評估流程中,相關研發人員須先行提供必要資訊,以供主管機關驗證該軟體器材之確效(validation)及是否已符合現行優良製造規範(current good manufacturing practices)與品質系統規範(Quality System Regulation, QSR)的要求。而由於以上標準已在此程序中先行驗證,主管機關得簡化上市前審查的相關查證程序,並加速查驗流程。   在測試方案中,則說明FDA將同時對同一軟體器材進行軟體預驗證審查及傳統審查,並比較兩種途徑的結果,以確保軟體預驗證審查途徑中的每一個程序都可以有效評估產品上市前所應符合的必要標準。最後,FDA綜合軟體預驗證計畫及測試方案,提出「運作模式初版」,以協助相關人員了解現行的規範架構與處理程序,並期待藉此促進技術開發者及主管機關間的溝通。FDA並於運作模式文件中提到,將在2019年3月8日前持續接受相關人員的建議,而未來將參酌建議調整計畫內容。

日本內閣府公布生成式AI初步意見彙整文件,提出風險因應、應用及開發兩大關注重點

日本內閣府於2023年5月26日召開第2次「AI戰略會議」(AI戦略会議),並公布「AI相關論點之初步整理」(AIに関する暫定的な論点整理)。鑒於AI對於改善國人生活品質、提高生產力無疑有相當助益,考量生成式AI甫問世,社會大眾對其潛在風險尚心存疑慮,內閣府遂以生成式AI為核心,延續先前已公布之「AI戰略2022」(AI 戦略 2022)、「以人為中心的AI社會原則」(人間中心の AI 社会原則),以「G7廣島峰會」(G7広島サミット)所提出之願景—「符合共同民主價值的值得信賴AI」為目標,提出「風險因應」及「應用與開發」兩大關注重點,供政府有關部門參考之同時,並期待可激起各界對於生成式AI相關議題之關注與討論: 一、風險因應:AI開發者、服務提供者與使用者應自行評估風險並確實遵守法規及相關指引;政府則應針對風險應對框架進行檢討,對於已知的風險,應先以現有的法律制度、指引與機制進行處理,假如現有法制等無法完全因應這些風險,則應參考各國作法盡速對現行制度進行修正。 AI的透明度與可信賴度於風險因應至關重要。若能掌握AI學習使用哪些資料、所學習資料之來源、AI如何產生結果等,就能針對使用目的選擇適合的AI,也較易因應發生之問題,並避免AI產生錯誤結果或在對話中洩漏機密資訊等。對此,本文件呼籲AI開發者及服務提供者依據現行法令和指引主動揭露資訊,政府則應對透明度和可信賴度相關要求進行檢討,並應依普及程度及各國動向對既有的指引進行必要之修正。 二、應用與開發:本文件建議政府部門積極使用生成式AI於業務工作上,找出提升行政效率同時不會洩漏機密之方法,並向民眾宣導AI應用之益處與正確的使用方式,以培養民眾AI相關技能與素養,藉以更進一步建構AI應用與開發之框架,如人才培育、產業環境準備、相關軟硬體開發等。

TOP