日本公布資料信託功能認定指引ver1.0並進行相關實驗

  日本總務省及經濟產業省於2017年11月至2018年4月間召開6次「資料信託功能認定流程檢討會」(情報信託機能の認定スキームの在り方に関する検討会),檢討具備資料信託功能之「資料銀行」認定基準及模範條款等事項,於2018年6月公布「資料信託功能認定指引ver1.0」(情報信託機能の認定に係る指針ver1.0),以利實現個人資料流通並創造新服務型態。資料銀行係指基於與個人間資料利用契約,透過PDS(personal data store)等系統管理個人資料,根據個人指示或預先設定的條件,於判斷妥當性後向第三方提供資料之行業。目前指引內容包括︰(1)資料信託機能認定基準︰具體內容包括業者適格性、資訊安全原則、資訊安全具體基準、治理體制、業務內容等;(2)模範條款記載事項︰針對個人與資料銀行、資料銀行與資料提供者、資料銀行與接受資料提供者間關係,列出具體應記載事項;(3)資料信託機能認定流程。

  作為日本總務省「資料信託功能運用推動計畫」(情報信託機能活用促進事業)一環,日立製作所、東京海上日動火災保險、日本郵局等於2018年9月10日發表將根據「資料信託功能認定指引ver1.0」,進行「資料銀行」個資管理、提供及運用等實驗,參與者分別扮演資料提供者、資料銀行和資料利用者三種角色,未來將會參考實驗結果,提出認定基準改善建議。

本文為「經濟部產業技術司科技專案成果」

相關連結
相關附件
※ 日本公布資料信託功能認定指引ver1.0並進行相關實驗, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8115&no=55&tp=1 (最後瀏覽日:2026/02/10)
引註此篇文章
你可能還會想看
歐盟發布資料法案草案

  2022年2月23日,歐盟委員會(European Commission,以下簡稱委員會)公開資料法案草案(Data Act,以下簡稱草案),基於促進資料共享的目的,草案其中一個目標是使不同規模的企業、用戶在資料利用上有著更加平等的地位,內容包含確保用戶資料可攜性、打破資料存取限制、推動大型企業的資料共享,扶植微/小型企業等幾大方向。   以下就草案對大型企業要求的義務切入,說明草案所帶來的影響: 確保用戶訪問資料的權利: 基本資訊的告知,包含所蒐集資料性質以及訪問方式、使用資料的目的;用戶可在不同產品/服務提供者(以下簡稱提供者)之間切換,且提供者須有技術支援;提供者需要有合理技術,避免資料在未經授權被查閱。 對於提供者的限制: 提供者不得將所蒐集的資料用於取得用戶的經濟地位、資產、使用喜好;具守門人性質的企業不得採取獎勵措施以鼓勵用戶提供自其他提供者處所取得的資料;提供者提供資料可以收取補償,但必須以公平、合理、非歧視、透明的方式為之,需要提供補償計算方式與基礎。 對於微/小/中型企業的保護 提供者對於微/小型企業所收取的資料補償,不得超過提供資料所需的成本;提供者利用市場優勢,對於微/小/中型企業的不合理/公平的約定無效(如單方面免除一方的重大過失/故意行為的責任)。   該資料法案草案須經歐盟議會(European Parliament)通過後才會生效,目前草案規定只要有在歐盟提供物聯網產品或服務之企業,就須遵守草案內容規範,考量到網路服務可跨國提供服務,草案規範與進度仍值得國內企業關注。 「本文同步刊登於TIPS網站(https://www.tips.org.tw )」

線上遊戲「虛擬財產」法律性質與產業發展趨勢之研究

歐盟「人工智慧法」達成政治協議,逐步建立AI準則

歐盟「人工智慧法」達成政治協議, 逐步建立AI準則 資訊工業策進會科技法律研究所 2023年12月25日 隨著AI(人工智慧)快速發展,在各領域之應用日益廣泛,已逐漸成為國際政策、規範、立法討論之重點。其中歐盟人工智慧法案(Artificial Intelligence Act, AI Act,以下簡稱AIA法案)係全球首部全面規範人工智慧之法律架構,並於2023年12月9日由歐洲議會及歐盟部長歷史會達成重要政治協議[1],尚待正式批准。 壹、發佈背景 歐洲議會及歐盟部長理事會針對AIA法案已於本年12月9日達成暫時政治協議,尚待正式批准。在法案普遍實施前之過渡期,歐盟執委會將公布人工智慧協定(AI Pact),其將號召來自歐洲及世界各地AI開發者自願承諾履行人工智慧法之關鍵義務。 歐盟人工智慧法係歐盟執委會於2021年4月提出,係全球首項關於人工智慧的全面法律架構,該項新法係歐盟打造可信賴AI之方式,將基於AI未來可證定義(future proof definition),以等同作法直接適用於所有會員國[2]。 貳、內容摘要 AIA法案旨在確保進入並於歐盟使用之AI人工智慧系統是安全及可信賴的,並尊重人類基本權利及歐盟價值觀,在創新及權利義務中取得平衡。對於人工智慧可能對社會造成之危害,遵循以風險為基礎模式(risk-based approach),即風險越高,規則越嚴格,現階段將風險分為:最小風險(Minimal risk)、高風險(High-risk)、無法接受的風險(Unacceptable risk)、特定透明度風險(Specific transparency risk)[3]。與委員會最初建議版本相比,此次臨時協定主要新增內容歸納如下: 臨時協議確立廣泛域外適用之範圍,包含但不限於在歐盟內提供或部署人工智慧系統的企業[4]。但澄清該法案不適用於專門用於軍事或國防目的之系統。同樣,該協定規定不適用於研究和創新目的之人工智慧系統,也不適用於非專業原因之個人AI使用。 臨時協議針對通用AI(General purpose AI)[5]模型,訂定相關規定以確保價值鏈之透明度;針對可能造成系統性風險之強大模型,訂定風險管理與重要事件監管、執行模型評估與對抗性測試等相關義務。這些義務將由執委會與業界、科學社群、民間及其他利害關係人共同制定行為準則(Codes of practices)。 考量到人工智慧系統可用於不同目的之情況,臨時協議針對通用AI系統整合至高風險系統,並就基礎模型部分商定具體規則,其於投放市場之前須遵守特定之透明度義務,另強調對於情緒識別系統有義務在自然人接觸到使用這種系統時通知他們。 臨時協議針對違反禁止之AI應用,罰款金額自3,500萬歐元 或全球年營業額7%(以較高者為準)。針對違反其他義務罰款1,500萬歐元或全球年營業額3%,提供不正確資訊罰 款750萬歐元或全球年營業額1.5%。針對中小及新創企業違反人工智慧法之行政罰款將設定適當之上限。 參、評估分析 在人工智慧系統之快速發展衝擊各國社會、經濟、國力等關鍵因素,如何平衡技術創新帶來之便利及保護人類基本權利係各國立法重點。此次歐盟委員會、理事會和議會共同對其2021年4月提出之AIA法案進行審議並通過臨時協議,係歐洲各國對於現下人工智慧運作之監管進行全面的討論及認可結果,對其他國家未來立法及規範有一定之指引效果。 此次臨時協議主要針對人工智慧定義及適用範圍進行確定定義,確認人工智慧系統產業鏈之提供者及部署者有其相應之權利義務,間接擴大歐盟在人工智慧領域之管轄範圍,並對於人工智慧系統的定義縮小,確保傳統計算過程及單純軟體使用不會被無意中禁止。對於通用人工智慧基礎模型之部分僅初步達成應訂定相關監管,並對基礎模型之提供者應施加更重之執行義務。然由於涉及層面過廣,仍需業界、科學社群、民間及其他利害關係人討論準則之制定。 面對AI人工智慧之快速發展,各國在人工智慧之風險分級、資安監管、法律規範、資訊安全等議題持續被廣泛討論,財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境,將持續觀測各國法令動態,提出我國人工智慧規範之訂定方向及建議。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI,https://www.europarl.europa.eu/news/en/press-room/20231206IPR15699/artificial-intelligence-act-deal-on-comprehensive-rules-for-trustworthy-ai (last visited December 25, 2023). [2]European Commission, Commission welcomes political agreement on Artificial Intelligence Act,https://ec.europa.eu/commission/presscorner/detail/en/ip_23_6473 (last visited December 25, 2023). [3]Artificial intelligence act,P5-7,https://superintelligenz.eu/wp-content/uploads/2023/07/EPRS_BRI2021698792_EN.pdf(last visited December 25, 2023). [4]GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2 (last visited December 25, 2023). [5]General purpose AI-consisting of models that “are trained on broad data at scale, are designed for generality of output, and can be adapted to a wide range of distinctive tasks”, GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2(last visited December 25, 2023).

荷蘭公私協力機制PPP

  自2012年來,荷蘭政府鼓勵荷蘭科學研究機構(Netherlands Organization for Scientific Research, NWO) 隸屬教育文化科學部(Ministry of Education, Culture and Science, OCW)積極推動與9大重要領域(Top Sectors)與企業相關研究的合作,NWO同時是政策實施機構也是創新研發機構。OCW每年資助約275億歐元在重要領域,其中有超過100億歐元在協助公私協力機制 ( Public-Private Partnerships, PPP)。近年來,OCW增加編列給NWO的預算,2014年增加2千5百萬歐元;2015-2017年增加7千5百萬歐元;2018年預計增加1億歐元。PPP 參與者為研究機構(例如大學機構、公私立研究機構)及民間企業(國內國外企業皆可)。主要規範依據NWO-Framework for Public-Private Partnership,合作後以聯盟(consortium)形式運作,聯盟成員間可以契約個別約定合作內容,但相關權利義務仍須遵循NWO-Framework for Public-Private Partnership。關於既有智慧財產權之使用方式,聯盟成員間須另外約定非無償使用。為實現該聯盟之研發目的, NWO為主要出資者時,可成為該研發成果之所有人或共有人,待研發成果運用及收益可以獲得妥善安排時,得將研發成果轉讓予能將研發成果運用效益最大化之人。原則上,參與PPP的企業並不當然有優先權可將該研究成果運用於商業用途,除非參與企業出資額幾乎達到整個研發支出的百分之百,且已簽訂研發成果書面授權或轉讓契約後,始能將該研發成果運用於商業用途。

TOP