Uber竊取Waymo無人車技術機密一案,法院裁定返還1.4萬筆機密資料

  Waymo是Google旗下發展無人車技術的公司,其員工Anthony Levandowski(以下簡稱Levandowski)於2016年2月離職並成立自動駕駛卡車公司Otto,而Uber於同年8月以6.8億美元併購該公司,Levandowski則任職於Uber的自動駕駛車部門。

  Waymo在收到供應商誤發的電子郵件發現內含Uber的光學雷達(以下簡稱LIDAR)電路板工程圖,據Waymo表示,LIDAR是一種發展自動駕駛不可或缺的雷射感測器,該工程圖與Waymo設計的工程圖非常相似,此為工程師投入上千小時並投入數百萬美元研發而成。Waymo因而於今(2017)年2月對Uber提出告訴,主張Uber竊取其營業秘密與智慧財產,並表示Levandowski離開Waymo前曾使用私人硬碟下載公司上千筆機密資料,尚包括數名離職員工亦曾下載機密資料,且目前都任職於Uber。

  今(2017)年5月美國加州北區聯邦地方法院依Waymo提出的有利證據,包含Uber明知或應知Levandowski握有1.4萬筆與Waymo智財相關的機密資料仍聘僱其為員工;且有完整紀錄顯示Levandowski離職前曾下載Waymo機密文件。因此裁定要求Uber限制Levandowski與相關員工使用與本案相關的LIDAR技術,且須於今年5月31日前返還Waymo,其中包含會議紀錄和Levandowski與相關員工電話紀錄。惟Uber仍可持續發展其自動駕駛技術,但賦予Waymo的律師及技術專家有權監視Uber未來的商業發展,並要求Uber必須在同年6月前調查Levandowski完整的LIDAR技術書面與口頭溝通紀錄,並提交給Waymo。

  另方面,Waymo在此同時也宣布與Uber在美國的主要競爭對手Lyft建立自動車駕駛員的合作夥伴關係,挑戰Uber乘車服務的市場地位。本案將於今年6月7日進行審判程序,後續值得持續關注。

相關連結
你可能會想參加
※ Uber竊取Waymo無人車技術機密一案,法院裁定返還1.4萬筆機密資料, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7793&no=57&tp=1 (最後瀏覽日:2026/04/26)
引註此篇文章
你可能還會想看
美國著作權局發布2022–2026策略計畫

  美國著作權局於2022年1月20日提出2022–2026五年策略計畫,以培養創造力及豐富文化為主軸,並闡明四個總體目標:著作權服務普及、提升效率、公正專業及增進資料使用。相關內容值得持續關注後續發展,說明如下: 一、著作權服務普及   隨著數位網路技術興起,著作權局已展開如製作溝通素材、回答公眾問題、提供各式主題教育計畫等活動。後續將更專注於讓所有人盡可能了解其服務,如著作權賠償委員會(Copyright Claims Board, CCB)等,創造一個屬於大眾的著作權系統,並豐富公眾可使用創意內容的數量與多樣性。 二、提升效率   著作權局進行包括建立企業著作權系統(Enterprise Copyright System, ECS)使其服務數位化、透過改進公共資訊聯絡中心、倉庫管理和財務系統以提升效率等工程。除持續更新ECS等系統外,未來將以用戶為中心來滿足著作權界的需求。 三、公正專業   著作權局長期以來擔任國會的著作權法律顧問,處理相關立法、政策與實踐問題,並與其他行政機關、法院合作處理各式著作權疑義。除了持續透過立法推動、規則制定及研究來衡平著作權法及政策之外,著作權局將繼續在國際舞台上參與政策討論及提供教育,發揮積極作用,成為全球著作權界的資源。 四、增進資料使用   在提供服務的過程中,著作權局蒐集了各類有價值的著作權相關資訊。此外,其亦網羅與內部運營績效、網路指標有關的其他資料。著作權局將加強資料的開發和使用,並以此作為決策的論證基礎、改進組織績效衡量標準,並使內、外部受眾更容易取得該等資料。 「本文同步刊登於TIPS網站(https://www.tips.org.tw)」

美國公民權利辦公室就Sentara醫療機構違反個資外洩通知義務予以重罰

  美國衛生及公共服務部(Department of Health and Human Services, 下稱HHS)轄下的公民權利辦公室(Office for Civil Right, 下稱OCR)在2019年11月27日,正式對Sentara醫療機構處以217萬美元行政罰,主因該機構違反《健康保險可攜與責任法》(Health Insurance Portability and Accountability Act, 下稱HIPAA)的醫療個資外洩通知義務。   HIPAA是美國有關醫療個資管理的主要規範,依據HIPAA第164.400條以下「違反通知規則」(Breach Notification Rule)規定,當超過500位病患的「受保護健康資訊」(Protected Health Information, 下稱PHI)遭受不當使用或被外洩時,除應通知受害人外,還必須立即告知HHS以及在當地知名媒體發布新聞。而OCR主要負責檢查受規範機構,是否確實執行HIPAA隱私、安全和違反通知規則。   而在2017年4月,HHS收到指控Sentara將含有病患姓名、帳號、就診日期等涉及PHI的帳單發送到錯誤地址,造成557名病患個資外洩。Sentara卻認為該帳單內容未含有病患病歷、治療資訊或其他診斷紀錄,且僅有8人被影響,並非HIPAA應進行個資外洩通知義務之範疇,故不依規定程序通報HHS。不過OCR認為依HIPAA第160.103條規定,PHI包含病史、保險資訊、就醫紀錄(含日期)、身心健康狀態等可識別個人之健康資訊。因此認為Sentara確實違反個資外洩通知義務,予以罰款並命檢討改善。   Sentara醫療機構服務範圍橫跨美國維吉尼亞州(Virginia)和北卡羅來納州(North Carolina),共有12家急性照護醫院、10家護理中心和3家照護機構,為美國最具知名的大型非營利醫療機構之一。這次重罰也告誡國內醫療機構當發生敏感性醫療個資外洩時應從嚴判斷,以避免民眾對醫療照護單位失去信任,確保國內醫療機構體系應恪遵HIPAA規範。

美國食品藥物管理局修訂《臨床研究電子系統、電子紀錄及電子簽章:問答集》指引草案

美國食品藥物管理局(U.S. Food and Drug Administration, US FDA)於2023年3月15日修訂《臨床研究電子系統、電子紀錄及電子簽章:問答集》(Electronic Systems, Electronic Records, and Electronic Signatures in Clinical Investigations: Questions and Answers)指引草案,為試驗委託者、臨床研究人員、人體研究倫理審查委員會、受託研究機構及其他利害關係人統整電子系統、電子紀錄及電子簽章常見問答,供食品、醫療產品、菸草製品及動物新藥臨床研究參考。 本指引草案修訂2017年6月21日所發布的《21 CFR part 11臨床研究使用電子紀錄及電子簽章—問答集》(Use of Electronic Records and Electronic Signatures in Clinical Investigations Under 21 Part 11-Questions and Answers),並將於本指引最終版確定後,取代2007年5月10日所發布的《臨床研究使用電腦系統》指引(Computerized Systems Used in Clinical Investigations)。US FDA認為電子系統、電子紀錄及電子簽章是可信且可靠的,並且通常可等同於紙本紀錄及手寫簽名的方式。 本指引修正重點如下: 一、新增電子系統驗證的風險基礎方法,以確保臨床研究建立、修改、維護、歸檔、檢索、傳輸電子資料及紀錄的真實性、完整性及機密性。 二、統整試驗委託者與資訊科技服務供應商合作應注意事項,以確保電子紀錄符合監管要求。 三、新增數位健康科技(digital health technology, DHT)定義及使用DHT考量重點。 關於臨床研究使用DHT,亦可參考2021年12月23日所公布的《透過數位健康科技擷取臨床研究遠端資料》(Digital Health Technologies for Remote Data Acquisition in Clinical Investigations)指引草案。該指引草案針對DHT的選擇、驗證、應用、訓練及風險提供相關建議。於臨床研究使用電子系統、電子紀錄及電子簽章已為國際趨勢,對於各國相關規範值得持續關注。 本文同步刊載於stli生醫未來式網站(https://www.biotechlaw.org.tw)

英國發布人工智慧網路資安實務守則

英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。

TOP