日本經產省公布AI、資料利用契約指引

  伴隨IoT和AI等技術發展,業者間被期待能合作透過資料創造新的附加價值及解決社會問題,惟在缺乏相關契約實務經驗的狀況下,如何締結契約成為應首要處理的課題。

  針對上述狀況,日本經濟產業省於2017年5月公布「資料利用權限契約指引1.0版」(データの利用権限に関する契約ガイドラインVer1.0),隨後又設置AI、資料契約指引檢討會(AI・データ契約ガイドライン検討会),展開後續修正檢討,在追加整理資料利用契約類型、AI開發利用之權利關係及責任關係等內容後,公布「AI、資料利用契約指引草案」(AI・データの利用に関する契約ガイドライン(案)),於2018年4月27日至5月26日間公開募集意見,並於2018年6月15日正式公布「AI、資料利用契約指引」(「AI・データの利用に関する契約ガイドライン)。

  「AI、資料利用契約指引」分為資料篇與AI篇。資料篇整理資料契約類型,將資料契約分為「資料提供型」、「資料創造型」和「資料共用型(平台型)」,說明個別契約架構及主要的法律問題,並提示契約條項及訂定各條項時應考慮的要點,希望能達成促進資料有效運用之目的。

  AI篇說明AI技術特性和基本概念,將AI開發契約依照開發流程分為(1)評估(assessment)階段;(2)概念驗證(Proof of Concept, PoC)階段;(3)開發階段;(4)進階學習階段,並針對各階段契約方式和締結契約時應考慮的要點進行說明,希望達成促進AI開發利用之目的。

本文為「經濟部產業技術司科技專案成果」

相關連結
相關附件
※ 日本經產省公布AI、資料利用契約指引, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8073&no=67&tp=1 (最後瀏覽日:2026/03/16)
引註此篇文章
你可能還會想看
美國商務部取消對來自敏感國家之外國科學家使用部分研究設備之限制

  911 恐怖攻擊以來,美國持續加強國土安全保護,而為保障國家安全及科技競爭力,美國商務部( US Department of Commerce )原本打算制定安全管制規定, 對來自敏感國家之外國科學家, 限制其 使用部分的實驗研究設備。所謂敏感國家( countries of concern ),包括巴基斯坦、印度、俄羅斯及中國,來自於這些國家的科學研究人員若要在美國境內的從事特定實驗研究,因而需要使用特定設施設備者(主要是可用於軍事用途者),不論研究設施設備是屬於聯邦或民間所有,在開始操作、進行安裝、維護與修繕等之前,必須先向美國政府提出申請始可近用。   現行美國有關技術管制規定主要係針對敏感科技的出口,商務部自 2004 年起,即打算推動修正此等規定,進一步將部分可用於軍事用途之研究設施設備予以立法管制,從美國政府所公布的管制清單來看,其涵蓋範圍甚廣,從化學、雷射到細菌培養等各領域之研究設施設備,均涵蓋在內,故商務部此項修法計畫一經公開,立即震撼外界,除學術界及產業界強烈外抨擊,就連聯邦實驗室也大表反對。反對意見多認為,預計的修正規定將會破壞大學校園中之開放精神,影響科學自由的研究環境;而研究設施設備近用之事前許可制,亦將造成學界與業界的負擔;甚至可能阻礙未來大學或業界延攬外國科技人才參與研究計畫之進行,長期而言,實將會戕害美國的國際競爭力。   面對各界反對聲浪,為避免降低研究型企業之生產力,美國商務部在今年 5 月底宣布取消原來的立法管制計畫,不過,商務部將會召集產學研各界專家,組成一個十二人的委員會,持續就實驗室安全管制的問題交換意見,期能獲致更有效之解決之道。

德國聯邦資訊技術,電信和新媒體協會針對AI及自動決策技術利用提出建議指南

  德國聯邦資訊技術,電信和新媒體協會於2018年2月6日在更安全的網路研討會中針對利用人工智慧及自動決策技術利用提出建議指南,旨在提升企業數位化與社會責任,並提升消費者權益保護。   德國司法及消費者保護部次長Gerd Billen於會議中指出,無論技術細節和具體應用如何發展,法律和消費者保護政策應確保人工智慧安全性,且不因此受歧視,以及盡可能確保技術利用透明度。而隨著人工智慧的發展,應設法解決使用人工智慧產生的法律問題。   例如,如何在製造商,供應商和消費者之間公平分配責任歸屬問題?在家庭,物流和手術室等領域已有越來越多具備自我學習的機器人被應用,相關權利是否會有所不同?如果機器出現不明原因故障,會發生什麼情況及如何處置?當機器透過在製造時尚未完全預定的環境感官認知做出具體決定時,該自動行為所生效力為何? 本份指南則提出六項建議: 促進企業內部及外部訂定相關準則 提升產品及服務透明度 使用相關技術應為全體利益著想 決策系統的可靠性仍取決資料的準確性。 重視並解決解決機器偏差問題 在特別需要負責的決策過程,應設計成由責任主體保留最終的決策權力,直到AI的控制品質已達到或高於所有參與者水平。

日本公布設立AI安全研究所與著手訂定AI安全性評鑑標準

日本於2023年12月1日舉辦G7數位技術委員會(G7デジタル・技術大臣会合),由日本數位廳、總務省、經濟產業省共同會晤G7會員國代表,基於人工智慧(Artificial Intelligence,下稱AI)可能帶給全球創造性、革命性的轉變,同時也可能伴隨侵害著作權與擴散假訊息的風險,尤其是生成式AI可能對經濟、社會影響甚鉅,因此針對如何妥善使用AI技術,G7全體會員國共同訂定《廣島AI進程》(広島AIプロセス)文件,其聲明內容簡述如下: 1.訂定涵蓋《廣島AI進程》之政策框架(Framework) 2.訂定涵蓋AI設計、系統開發、規劃、提供與使用等所有與AI有關人員,(All AI actors, when and as applicable, and appropriate, to cover the design, development, deployment, provision and use of advanced AI systems)適用之《廣島AI進程》國際標準(Principle) 3.針對開發高階AI系統之組織,訂定可適用之國際行為準則(Code of Conduct) 為此,日本內閣府於2024年2月14日公布,於經濟產業省政策執行機關—獨立行政法人資訊處理推動機構(独立行政法人情報処理推進機構,下稱IPA)轄下設立日本AI安全研究所(Japan AI Safety Institute,下稱AISI),作為今後研擬AI安全性評鑑標準(據以特定或減少AI整體風險)與推動方式之專責機構,以實現安心、安全以及可信賴之AI為目標。AISI所職掌的業務範圍如下: 1.進行AI安全性評鑑之相關調查 2.研擬AI相關標準 3.研擬安全性評鑑標準與實施方式 4.研擬與各國AI專責機關進行國際合作,例如:美國AI安全研究所(U.S. Artificial Intelligence Safety Institute, USAISI) 另一方面,IPA將以內部人才招聘作為AISI成員之任用方式,預計組成約數十人規模的團隊。日本以與G7會員國共識為基礎,採專責機關—AISI進行研究與規劃,並推動日後擬定AI相關使用規範與安全性評鑑標準,據以實現AI應用安全之目標。我國對於AI技術之應用領域,未來應如何訂定使用安全規範,將涉及專業性與技術性事項之整體性規劃,日本因應AI課題而採行的做法值得我國未來持續關注。

日本發布Startup交易習慣之現況調查報告最終版,統整新創事業實務上遭遇不公平競爭行為之態樣

  日本公平交易委員會於2020年11月27日發布「Startup交易習慣之現況調查報告最終版」(スタートアップの取引慣行に関する実態調査について最終報告),主旨為揭露其國內新創事業於交易市場遭遇不公平競爭行為的調查結果。本報告的作成目的,係基於新創事業發展具備推動創新、活絡國內經濟之潛力,故針對各類型新創事業在參與市場交易時,有無因其與相對人間的不對等地位(因需仰賴相對人提供資金或資源),遭遇不公平競爭的情況進行調查。同時,本報告所公布的調查結果,將會作為未來訂定新創事業與合作廠商間契約指引的參考依據,以圖從制度面改善新創事業參與市場的競爭環境。   本報告書所調查的交易態樣,聚焦於容易出現不公平競爭行為的契約或競爭關係,並分別整理主要的行為態樣如下:(1)新創事業與合作廠商間之契約:要求新創事業揭露營業秘密、約定對合作廠商有利的保密協議條款、無償進行概念驗證(Proof of Concept)、無償提供授權、於共同研究契約中約定智財權僅歸屬合作廠商、延遲給付報酬予新創事業等;(2)新創事業與出資者間之契約:要求新創事業揭露營業秘密、負擔出資者外包業務予第三人之費用、購買不必要的商品或服務、提供片面優惠待遇、限制新創事業的交易對象等;(3)新創事業與其他競爭廠商間之關係:競爭廠商要求交易相對人不得向與其存在競爭關係之新創事業買入競爭性商品;競爭廠商針對特定新創事業設定較高的商品售價,而事實上拒絕與其進行交易等。同時,依據報告書,在與合作廠商或出資者進行交易、或訂定契約的過程中,約有17%的新創事業表示曾遭遇「無法接受的行為」(納得できない行為),且當中有約八成的新創事業妥協接受。其中,若為銷售額未滿5000萬日圓、且公司未配有法務人員的新創事業,遇到無法接受行為的事業家數為銷售額5000萬日圓以上、且公司有法務人員之新創事業的2.5倍。

TOP