歐盟在考量營業秘密對企業重要性下,通過兼顧重要資料保護的資料法法案,以推動資料經濟發展

歐盟理事會於2023年11月27日批准通過資料法法案(Data Act),該法案雖預計於2025年才會生效,該草案自2022年公告以來,各界對該法案都紛紛從不同角度表示意見,如企業對於資料共享是否對營業秘密外流的風險表達擔憂,歐盟在發揮資料經濟價值(資料交易與資料使用)的方向下,將業界考量納入進行修改,以下就經理事會通過之資料法法案關鍵影響概要如下:

1、資料共享
有鑑於因網路裝置/服務所產出的數位資料往往掌握於產品製造商或服務提供商身上,資料法建立了資料共享的基本規則,確保數位資料由製造商/服務商流動至第三人(包含產品/服務使用者),另資料法所保護之資料包含使用AI所產生之資料。

2、營業秘密保護
為避免資料持有人的營業秘密因此外流,資料持有人可以與請求提供資料的第三人(資料請求者)協議應採取之保密措施,在保密措施未達成一致或使用者未實施保密措施,資料持有人可暫停資料共享,在有重大經濟損失之虞時甚可拒絕資料共享。

3、對資料持有者的限制
資料持有者僅能在與使用者約定之範圍內使用資料,在無使用者許可下,不得用使用者所產出之資料去回推使用者的經濟、資產或生產等資訊,以避免損及使用者的商業地位。

資料法法案的主要目標在於塑造具競爭性的資料市場生態,確保資料的價值可公平分配到不同參與者身上,其聚焦在非個人資料的數位資料上,除適用於對歐盟提供產品/服務之廠商外,亦包含可於歐盟境內取得資料之情況。國內廠商宜先檢視自身商業行為與歐盟之關聯性,盤點現有產品或服務所產出的資料屬性,如可能需特別約定保密措施之營業秘密,預先規劃資料管理機制與對應管制措施,就重要資料或營業秘密管理機制可參資策會科法所公布之《重要數位資料治理暨管理制度規範(EDGS)》、《營業秘密保護管理規範》。

本文同步刊登於TIPS網站(https://www.tips.org.tw

相關連結
你可能會想參加
※ 歐盟在考量營業秘密對企業重要性下,通過兼顧重要資料保護的資料法法案,以推動資料經濟發展, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9094&no=57&tp=1 (最後瀏覽日:2026/02/12)
引註此篇文章
你可能還會想看
歐盟執委會發布「再生能源:歐洲能源市場的重要角色」產業推動報告

  歐盟執委會於2009年4月23日發布再生能源指令(DIRECTIVE 2009/28/EC),目標在2020年達成20%的再生能源利用;並於2011年1月31日發布「再生能源:邁向2020目標」(Renewable Energy: Progressing towards the 2020 target)通訊報告,檢視歐洲再生能源產業概況及所面對的挑戰,透過與「歐洲及國家再生能源領域之財務檢視」(Review of European and national financing of renewable energy in accordance with Article 23(7) of Directive 2009/28/EC)、「運輸領域使用生質燃料及其他再生燃料的發展及技術評估」(Recent progress in developing renewable energy sources and technical evaluation of the use of biofuels and other renewable fuels in transport in accordance with Article 3 of Directive 2001/77/EC and Article 4(2) of Directive 2003/30/EC)及「生質燃料及生質燃油永續計畫報告」(Report on the operation of the mass balance verification method for the biofuels and bioliquids sustainability scheme in accordance with Article 18(2) of Directive 2009/28/EC)等三份報告的結合,瞭解再生能源領域發展所須的支出、確保其品質、運用最有效率及最具經濟效益的手段,架構歐洲再生能源利用之2020年目標。   為達此一目標,各會員國自行採取相關措施加以推動,每年投入的資金呈倍數的成長;然在2020年之後,卻未見相關政策規劃。為持續發展再生能源,執委會於2012年6月6日發布「再生能源:歐洲能源市場的重要角色」(Renewable Energy: a major player in the European energy market)通訊報告,呼籲各會員國在相關計畫的建立與改革採取更協調一致的措施,提升會員國間再生能源的交易,並探討2020年之後再生能源的發展框架。此一通訊報告包含兩部分:第一、為達2020年的再生能源發展目標,指出四個須加速推動的領域;第二、開始思考2020年後之規劃框架。   針對應加速推動以達成2020年發展目標的四大領域,包括(1)能源市場、(2)支援計畫(support schemes)、(3)合作機制、(4)地中海區能源合作計畫。歐盟執委會堅持達成境內能源市場的整合,並認為有必要提供投資獎勵,以順利進行。對於相關支援計畫,應鼓勵降低成本並避免過度補貼;由於支援計畫多由各國政府主導,而各國可能有缺乏透明度、突然終止、甚至補助差異,造成市場運作模式的阻礙,因此執委會呼籲透過跨國的合作來解決。此外,執委會鼓勵增加合作機制,使會員國間能透過再生能源的交易、降低成本,以達成再生能源利用目標。針對地中海區的能源合作計畫,執委會建議改善其管理框架,並著重於整合馬格里布地區(Maghreb)的市場,將有助於大規模投資,進口再生能源電力。   針對2020年後之發展,則應兼顧創新與降低成本,促進對再生能源的投資。依據歐洲「2050能源路徑圖」(Energy Roadmap 2050)之規劃,開始探討邁向2030的發展策略,主要仍以溫室氣體排放、再生能源及能源效率為政策目標。執委會強調,儘速確定2030年的發展規劃至關重要,此規劃並應使再生能源業者在能源市場上提升其競爭力。

保險新品~開放原始碼保單

  由於開放原始碼的風氣盛行,使得許多 軟體業者 在使用開放原始碼軟體開發自家的軟體產品時,常不小心 逾越開放原始碼的授權範圍而陷身於 侵權的風險中。大抵一般比較常見的侵權情形,如企業開發專有軟體時, 利用單一或多樣以上的開放原始碼元件來建置,如交易工具或財產庫存管理應用程式等,而將這些程式流通於內部企業網路或是傳遞給外部客戶使用時,已構成”散佈”行為,是觸犯了開放原始碼 GPL ( General Public License ,通用公共許可 )授權 。   日前位於紐約的 開放原始碼風險管理公司( Open Source Risk Management , OSRM )結合 Lloyd's 保險業者 Kiln 及 Miller 保險經紀公司推出開放原始碼保單來承擔企業使用開放原始碼的風險,該保險單最高賠償金額為 1000 萬美元。平均而言,企業若是投保 100 萬美元的保單,每年大約必須支付 2 萬美元的保險費。

日本內閣閣議決定2021年最新3年期網路安全戰略

  日本內閣於2021年9月28日閣議決定最新3年期《網路安全戰略》(サイバーセキュリティ戦略)。本戰略係根據網路安全基本法(サイバーセキュリティ基本法),針對日本應實施之網路安全措施進行中長期規劃。日本將從「以數位改革為基礎,推動數位轉型與網路安全」、「在網路空間朝向公共空間化與相互連繫發展下,縱觀全體以確保安全安心」、「加強風險管理措施」三大方向,推動網路安全措施。本戰略重點措施包括: 提升經濟社會活力,並推動數位轉型與網路安全:為達成數位改革,日本經濟社會須完成數位轉型改革。而在推動經濟社會數位化過程中,應將網路安全納入政策推動之考量。 實現國民得安全安心生活之數位社會:所有組織應確保完成任務,並加強風險管理措施。而數位廳將揭示並推動網路安全基本方針,以使政府提供網路安全環境保護國民與社會。 促進國際社會和平安定,並保障日本安全:為確保全球規模「自由、公正且安全之網路空間」,日本須制定展現該理念之國際規範,並加強國際合作。 推動橫向措施:在橫向措施方面,將進行中長期規劃,推動實踐性研究開發,並促進網路安全人才培育。此外,政府亦須與民間共同合作進行推廣宣傳,以強化國民對網路安全意識。

歐盟執委會提出「具可信度之人工智慧倫理指引」

  歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。   該指引並進一步指出人工智慧應遵守以下四項倫理原則: (1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。 (2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。 (3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。 (4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。

TOP