荷蘭資料保護局(Data Protection Authority, DPA)歷經長達七個月的調查,於2013年11月28日發布新聞稿,聲明Google違反該國資料保護法,因其未適當告知用戶他們蒐集了什麼資料、對資料做了些什麼事。
DPA主席Jacob Kohnstamm表示:「Google在未經你我同意的情形下,對我們的個人資料編織了一張無形的網,而這是違法的。」調查報告援引了Google執行長Eric Schmidt在2010年一場訪談中所說的話:「你不用鍵入任何字,我們知道你正在什麼地方、去過什麼地方,甚至或多或少知道你在想些什麼。」。
調查顯示Google為了展示個人化的廣告及提供個人化的服務,而將不同服務取得的個人資料加以合併,如搜尋記錄、所在位置及觀看過的影片等。然而,從用戶的觀點來看,這些服務係基於全然不同的目的,而Google亦未事先提供用戶同意或拒絕的選項。依照荷蘭資料保護法的規定,Google合併個人資料前,應經當事人明示同意,而該同意無法藉由概括(隱私)服務條款取得。針對DPA的聲明,Google回應他們已經提供用戶詳細資訊,完全符合荷蘭法律。
DPA表示將通知Google出席聽證會,就調查結果進行討論,並決定是否對Google採取強制措施。但是,從Google的回應看來,他們不太可能在聽證過後改變心意。以先前Google街景車透過Wi-fi無線網路蒐集資料的案例為鑑,Google(市值達3500億美元)若繼續拒絕遵循,將有可能面臨高達1佰萬歐元的罰鍰。
日本經濟產業省(以下簡稱經產省)為了落實安倍內閣提出之日本再興戰略,希望透過相關法制規範之調整,促進產業新陳代謝機制,並喚起民間的投資,進一步解決日本國內企業「過多限制、過小投資、過當競爭」現象,前於2013年10月15日將「產業競爭力強化法」提交國會審議。經日本國會審議後,該法已於同年12月6日公布,計有8章、共156條之條文,另有附則45條,並取代原先於2011年修正之產業活力再生特別措施法的功能。因產業競爭力強化法之內容屬政策性規範,搭配之施行細則、施行令等也陸續於2014年1月20日公布。 自產業競爭力強化法施行後,對於日本企業預計開發新產品和新技術等放寬限制,讓企業有機會進入與原業務不同之領域,並進行業務整編。舉例而言,依該法第9條第1項之規定:「欲實施新事業活動者依據主務省令規定,可向主務大臣提出要求,確認規定其欲實施之新事業活動及與其相關之事業活動的規範限制之法律和其所根據法律之命令規定的解釋,以及該當規定是否適用於該當新事業活動及與其相關之事業活動」之規定,就相關事業活動是否符合法令與否,向經產省申請解釋。 此一制度被稱為「灰色地帶消除制度」,目的在於使日本企業規劃新事業之前,可先洽主管機關瞭解該新事業活動涉及之業務是否合法,在經產省網站上已有SOP與申請表格可供參考。而此制度功能在於透過日本主管機關的闡釋、說明或認定相關計畫,讓有意從事創新活動的業者有如吞下定心丸,得以積極規劃、推動後續作業。
奈米級化粧品的安全尚待評估近年來,越來越多的化粧品標榜與奈米科技結合,其 業者表示,奈米顆粒較傳統化粧品為小,可由深層肌膚吸收 , 進而達到 強化保養的功能。不過 ,美國食品藥物管理局( FDA )及英國皇家學會則持相對保留的態度,認為奈米顆粒對於人體的長期風險還不明確,有待進一步研究 , 特別是針對細小微粒進入人體細胞或滲入血液時 ,對人體 可能產生的影響。 為了確保奈米級化粧品的安全性 , FDA 曾考慮針對此類產品建立一套類似製藥體系的實驗與許可證制度 ,並積極從事相關研究,以求增加此方面的知識進而 評估風險。此外 , 英國皇家學會也表示,目前仍不清楚這些微粒是否真能深入肌膚,以及是否會對血液產生長期影響。雖然 , 至今無人能夠證實奈米科技對於人體的危害,但卻有人相當擔心,它可能和基改一樣有利有弊。 目前化妝品市場平均每年成長百分之十,若干業者更深信奈米科技能夠協助製造新一代產品。由於看好奈米級化粧品的一片榮景 , 目前國際知名的化妝品公司紛紛投入此類產品的開發 , 我國相關產業似乎也躍躍欲試 。面對越來越多的業者投入奈米級化粧品的開發與生產, 我國衛生署則提醒,奈米科技在化妝品上的運用是否成熟還需要觀察,其效果與安全性也有待進一步評估 , 因而民眾選購時應審慎判斷。
因應使用「生成式AI(Generative AI)」工具的營業秘密管理強化建議2024年7月1日,美國實務界律師撰文針對使用生成式AI(Generative AI)工具可能導致的營業秘密外洩風險提出營業秘密保護管理的強化建議,其表示有研究指出約56%的工作者已經嘗試將生成式AI工具用於工作中,而員工輸入該工具的資訊中約有11%可能包含公司具有競爭力的敏感性資訊或客戶的敏感資訊,以Chat GPT為例,原始碼(Source Code)可能是第二多被提供給Chat GPT的機密資訊類型。系爭機密資訊可能被生成式AI工具提供者(AI Provider)用於訓練生成式AI模型等,進而導致洩漏;或生成式AI工具提供者可能會監控和存取公司輸入之資訊以檢查是否有不當使用,此時營業秘密可能在人工審查階段洩漏。 該篇文章提到,以法律要件而論,生成式AI有產生營業秘密之可能,因為營業秘密與著作權和專利不同之處在於「發明者不必是人類」;因此,由生成式 AI 工具協助產出的內容可能被視為營業秘密,其範圍可能包括:公司的內部 AI 平台、基礎的訓練算法和模型、輸入參數和輸出結果等。惟基於目前實務上尚未有相關案例,故生成式AI輸出結果在法律上受保護的範圍與條件仍需待後續的判例來加以明確。 實務專家提出,即使訴訟上尚未明確,企業仍可透過事前的管理措施來保護或避免營業秘密洩露,以下綜整成「人員」與「技術」兩個面向分述之: 一、人員面: 1.員工(教育訓練、合約) 在員工管理上,建議透過教育訓練使員工了解到營業秘密之定義及保護措施,並告知向生成式AI工具提供敏感資訊的風險與潛在後果;培訓後,亦可進一步限制能夠使用AI工具的員工範圍,如只有經過培訓及授權之員工才能夠存取這些AI工具。 在合約方面,建議公司可與員工簽訂或更新保密契約,納入使用生成式AI的指導方針,例如:明確規定禁止向生成式AI工具輸入公司營業秘密、客戶數據、財務信息、未公開的產品計劃等機密資訊;亦可增加相關限制或聲明條款,如「在生成式AI工具中揭露之資訊只屬於公司」、「限制公司資訊僅能存儲於公司的私有雲上」等條款。 2.生成式AI工具提供者(合約) 針對外部管理時,公司亦可透過「終端使用者授權合約(End User License Agreement,簡稱EULA)」來限制生成式AI工具提供者對於公司在該工具上「輸入內容」之使用,如輸入內容不可以被用於訓練基礎模型,或者該訓練之模型只能用在資訊提供的公司。 二、技術方面: 建議公司購買或開發自有的生成式AI工具,並將一切使用行為限縮在公司的私有雲或私有伺服器中;或透過加密、防火牆或多種編碼指令(Programmed)來避免揭露特定類型的資訊或限制上傳文件的大小或類型,防止機密資訊被誤輸入,其舉出三星公司(Samsung)公司為例,三星已限制使用Chat GPT的用戶的上傳容量為1024位元組(Bytes),以防止輸入大型文件。 綜上所述,實務界對於使用生成式AI工具可能的營業秘密風險,相對於尚未可知的訴訟攻防,律師更推薦企業透過訴訟前積極的管理來避免風險。本文建議企業可將前述建議之作法融入資策會科法所創意智財中心於2023年發布「營業秘密保護管理規範」中,換言之,企業可透過「營業秘密保護管理規範」十個單元(包括從最高管理階層角色開始的整體規劃建議、營業秘密範圍確定、營業秘密使用行為管理、員工管理、網路與環境設備管理、外部活動管理,甚至是後端的爭議處理機制,如何監督與改善等)的PDCA管理循環建立基礎的營業秘密管理,更可以透過上述建議的做法(對單元5.使用管理、單元6.1保密約定、單元6.4教育訓練、單元7.網路與環境設備管理等單元)加強針對生成式AI工具之管理。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
標準必要專利與反托拉斯之成果運用法制-以高通案為例