美國州隱私法要求企業揭露資訊 企業應如何平衡隱私法與營業秘密的衝突

美國目前沒有聯邦的隱私法,由各州訂定州隱私法、產業隱私法,要求企業應揭露資訊以提升資訊透明度,然而隱私法要求企業揭露的資訊多涵蓋了企業的營業秘密。美國華盛頓州州長於2023年4月27日簽署《我的健康資料法(My Health My Data Act)》的州隱私法,其將消費者的健康資料廣義定義為「與消費者有關或具合理關聯的個人資料,可用於識別消費者過去、現在或未來的物理或心理健康狀況」,例如醫療相關資料、患者接受醫療服務的精確地理位置、透過非健康資料可推斷得出的資料。「非健康資料可推斷得出的資料」,如零售業者蒐集消費者近期採購的訂單內容(非健康資訊),並透過AI機器學習分析得出消費者可能懷孕的比例及預產期,藉此對該消費者投放零售業者的嬰幼產品的個人化廣告。

於《我的健康資料法》廣義定義「健康資料」下,導致消費者可要求企業提供的資料可能涵蓋了「企業長期累積之消費者使用資料、經演算法分析運用之消費者使用資料、共享消費者資料的第三方企業名單」等企業認為屬於其營業秘密的資料。

為平衡隱私法的資訊透明度及企業想保護其營業秘密,建議企業可先採取: 

1.使公司的智財部門與資料保護部門合作,確保公司人員對公司營業秘密標的及範圍的認知一致,並盤點企業所有的營業秘密以製作、持續更新營業秘密清單。
2.企業在揭露受營業秘密保護的資料給消費者前,先與消費者簽訂保密契約,並參考前述營業秘密清單約定契約之保密範圍。

如企業欲採取更完備的營業秘密管理措施,建議參考資策會科法所創意智財中心發布的《營業秘密保護管理規範》。

本文同步刊登於TIPS網站(https://www.tips.org.tw)。

相關連結
你可能會想參加
※ 美國州隱私法要求企業揭露資訊 企業應如何平衡隱私法與營業秘密的衝突, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9030&no=64&tp=1 (最後瀏覽日:2026/01/28)
引註此篇文章
你可能還會想看
法國科學家現正積極研究奈米碳管的毒性評估方式

  法國國家研究會議﹙French National Research Council﹙CNRS﹚﹚的科學家,過去三年持續投入奈米碳管的毒性研究,包括奈米管在環境中所引起的污染反應、其對人體的危害,以及如何以較清潔的方式從事奈米碳管的生產製造。這個研究計畫將側重於目前常為產業利用的各式奈米管。   目前,奈米碳管在全球的製造量高達每年數百噸之譜。優越的機械及電子性能,促使奈米碳管被大量運用在平面螢幕及汽車產業當中,甚至利用在運動產品之上。然而,除了擴增的應用領域之外,其對人體健康及環境的影響迄今尚未受到重視。使用奈米管的物質通常被當做一般廢棄物來處理,就其對於環境的影響,人們更是一無所知。   法國CNRS的科學家希望能夠釐清這樣的問題。目前,研究人員的觀察重點將在奈米碳管如何影響水生環境﹙aquatic environments﹚,以及兩棲生物在奈米管流佈的環境中如何生存及反應。此外,科學家們同時觀察奈米材料如何影響人體健康:他們正在觀察及研究巨嗜球﹙macrophage cells﹚如何與奈米碳管互動,以及在這種暴露環境下,實驗用鼠的肺部是否會產生發炎症狀。經由初步的實驗,科學家們發現人體會將奈米管視為異物,進而引發發炎反應。   接下來,CNRS會進一步研究如何以更清潔且對環境友善的方式來製造奈米管。

德國汽車製造商擁有德國境內大部分的自駕車專利

  根據德國專利商標局(Deutsches Patent- und Markenamt)2017年度報告,德國該年境內發明專利申請量達67,707件,僅較2016年下降0.3%(2016年專利申請量達歷年新高),主要領域在交通;而新型專利和設計專利申請量卻持續下降。歷年申請量如下表: (件數) 2017 2016 2015 2014 2013 2012 2011 發明 專利 67,706 67,907 66,898 65,963 63,177 61,361 59,612 新型 專利 13,299 14,030 14,271 14,741 15,470 15,531 16,038 設計 專利 44,297 57,057 58,017 60,837 56,944 55,250 53,197 資料來源:德國專利商標局   其中,德國汽車公司投資在電動汽車、輔助系統和自動駕駛等領域數十億元的成果在發明專利中被充分反映出來。根據德國專利商標局2017年度報告,該年自動駕駛專利申請數量有2,633件,較2016年增加14%,是2013年的兩倍。   在德國4,810件自動駕駛專利中,德國汽車公司就擁有超過2,006件,占42%,日本為28%,美國為11%。僅2017一年,德國汽車公司就取得325件自動駕駛專利,較日本公司259件、美國公司112件和法國公司的41件還多。其中絕大多數被Audi、Toyota和Volkswagen所擁有。   此外,德國境內電動汽車專利申請也增加10%,總數達到3,410件,超過三分之一是用於蓄電池和燃料電池,德國汽車公司高居專利申請量榜首,其中以Bosch和Schaeffler為最。   事實上,除了在德國境內,全球自動駕駛專利幾乎一半亦為德國汽車公司所擁有,截止至2017年底,占了48.8%,其中Bosch排名第一,共擁有1,101件專利。前十名專利擁有者如下圖: 單位:件 資料來源:德國經濟研究所(Institut der deutschen Wirtschaft) 「本文同步刊登於TIPS網站(https://www.tips.org.tw)」

WhatsApp與英國ICO達成協議將停止與Facebook間之資料共享

  英國資訊專員辦公室(Information Commissioner's Office,簡稱ICO)在歐盟資料保護主管機關(European Data Protection Authorities) 針對WhatsApp與其母公司Facebook間進行資料共享之行為提出相關顧慮之後,於2016年8月就上開事件是否涉及違反英國資料保護法(Data Protection Act)啟動調查,調查結果終於在2018年3月14日出爐並且雙方達成協議。   ICO調查結果是WhatsApp並無正當且合法之理由與Facebook進行資料共享,惟並未對WhatsApp進行任何懲罰,原因乃是WhatsApp並未分享英國用戶之資料予Facebook,並未直接違反英國資料保護法,因為WhatsApp被定位在資料處理者(data processor),只要運作是合法的且不侵擾人們之人權,即可容許。不過WhatsApp仍向ICO承諾將停止分享其用戶個人資訊予Facebook,此協議將持續到GDPR生效為止,亦即此後WhatsApp與Facebook間之資料共享若符合GDPR之規範,則可在基於安全防護之目的下進行或是改善其產品與廣告行銷。   ICO調查專員Elizabeth Denham指出WhatsApp不應與Facebook間進行資料共享之理由有三:一、WhatsApp並未確認其與Facebook間所進行之個人資料分享係基於何種法律依據;二、WhatsApp並未向其用戶適當且公平地揭露其如何處理、分享用戶之資料;三、對於WhatsApp既有之用戶而言,WhatsApp與Facebook間資料共享之處理目的與當初WhatsApp獲取其用戶資料之目的,二者並不相符。   惟歐盟其他國家對於WhatsApp之處置可能不若英國寬容。例如,法國國家資訊自由委員會(Commission nationale de l'informatique et des libertes,簡稱CNIL)正對其採取執法行動,而漢堡資料保護與資訊自由委員會(Hamburg Commissioner of Data Protection and Freedom of Information)將案件提交到高等行政法院,該法院並已禁止Facebook使用從WhatsApp共享中所獲得之資料。

因應使用「生成式AI(Generative AI)」工具的營業秘密管理強化建議

2024年7月1日,美國實務界律師撰文針對使用生成式AI(Generative AI)工具可能導致的營業秘密外洩風險提出營業秘密保護管理的強化建議,其表示有研究指出約56%的工作者已經嘗試將生成式AI工具用於工作中,而員工輸入該工具的資訊中約有11%可能包含公司具有競爭力的敏感性資訊或客戶的敏感資訊,以Chat GPT為例,原始碼(Source Code)可能是第二多被提供給Chat GPT的機密資訊類型。系爭機密資訊可能被生成式AI工具提供者(AI Provider)用於訓練生成式AI模型等,進而導致洩漏;或生成式AI工具提供者可能會監控和存取公司輸入之資訊以檢查是否有不當使用,此時營業秘密可能在人工審查階段洩漏。 該篇文章提到,以法律要件而論,生成式AI有產生營業秘密之可能,因為營業秘密與著作權和專利不同之處在於「發明者不必是人類」;因此,由生成式 AI 工具協助產出的內容可能被視為營業秘密,其範圍可能包括:公司的內部 AI 平台、基礎的訓練算法和模型、輸入參數和輸出結果等。惟基於目前實務上尚未有相關案例,故生成式AI輸出結果在法律上受保護的範圍與條件仍需待後續的判例來加以明確。 實務專家提出,即使訴訟上尚未明確,企業仍可透過事前的管理措施來保護或避免營業秘密洩露,以下綜整成「人員」與「技術」兩個面向分述之: 一、人員面: 1.員工(教育訓練、合約) 在員工管理上,建議透過教育訓練使員工了解到營業秘密之定義及保護措施,並告知向生成式AI工具提供敏感資訊的風險與潛在後果;培訓後,亦可進一步限制能夠使用AI工具的員工範圍,如只有經過培訓及授權之員工才能夠存取這些AI工具。 在合約方面,建議公司可與員工簽訂或更新保密契約,納入使用生成式AI的指導方針,例如:明確規定禁止向生成式AI工具輸入公司營業秘密、客戶數據、財務信息、未公開的產品計劃等機密資訊;亦可增加相關限制或聲明條款,如「在生成式AI工具中揭露之資訊只屬於公司」、「限制公司資訊僅能存儲於公司的私有雲上」等條款。 2.生成式AI工具提供者(合約) 針對外部管理時,公司亦可透過「終端使用者授權合約(End User License Agreement,簡稱EULA)」來限制生成式AI工具提供者對於公司在該工具上「輸入內容」之使用,如輸入內容不可以被用於訓練基礎模型,或者該訓練之模型只能用在資訊提供的公司。 二、技術方面: 建議公司購買或開發自有的生成式AI工具,並將一切使用行為限縮在公司的私有雲或私有伺服器中;或透過加密、防火牆或多種編碼指令(Programmed)來避免揭露特定類型的資訊或限制上傳文件的大小或類型,防止機密資訊被誤輸入,其舉出三星公司(Samsung)公司為例,三星已限制使用Chat GPT的用戶的上傳容量為1024位元組(Bytes),以防止輸入大型文件。 綜上所述,實務界對於使用生成式AI工具可能的營業秘密風險,相對於尚未可知的訴訟攻防,律師更推薦企業透過訴訟前積極的管理來避免風險。本文建議企業可將前述建議之作法融入資策會科法所創意智財中心於2023年發布「營業秘密保護管理規範」中,換言之,企業可透過「營業秘密保護管理規範」十個單元(包括從最高管理階層角色開始的整體規劃建議、營業秘密範圍確定、營業秘密使用行為管理、員工管理、網路與環境設備管理、外部活動管理,甚至是後端的爭議處理機制,如何監督與改善等)的PDCA管理循環建立基礎的營業秘密管理,更可以透過上述建議的做法(對單元5.使用管理、單元6.1保密約定、單元6.4教育訓練、單元7.網路與環境設備管理等單元)加強針對生成式AI工具之管理。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

TOP