Waymo是Google旗下發展無人車技術的公司,其員工Anthony Levandowski(以下簡稱Levandowski)於2016年2月離職並成立自動駕駛卡車公司Otto,而Uber於同年8月以6.8億美元併購該公司,Levandowski則任職於Uber的自動駕駛車部門。
Waymo在收到供應商誤發的電子郵件發現內含Uber的光學雷達(以下簡稱LIDAR)電路板工程圖,據Waymo表示,LIDAR是一種發展自動駕駛不可或缺的雷射感測器,該工程圖與Waymo設計的工程圖非常相似,此為工程師投入上千小時並投入數百萬美元研發而成。Waymo因而於今(2017)年2月對Uber提出告訴,主張Uber竊取其營業秘密與智慧財產,並表示Levandowski離開Waymo前曾使用私人硬碟下載公司上千筆機密資料,尚包括數名離職員工亦曾下載機密資料,且目前都任職於Uber。
今(2017)年5月美國加州北區聯邦地方法院依Waymo提出的有利證據,包含Uber明知或應知Levandowski握有1.4萬筆與Waymo智財相關的機密資料仍聘僱其為員工;且有完整紀錄顯示Levandowski離職前曾下載Waymo機密文件。因此裁定要求Uber限制Levandowski與相關員工使用與本案相關的LIDAR技術,且須於今年5月31日前返還Waymo,其中包含會議紀錄和Levandowski與相關員工電話紀錄。惟Uber仍可持續發展其自動駕駛技術,但賦予Waymo的律師及技術專家有權監視Uber未來的商業發展,並要求Uber必須在同年6月前調查Levandowski完整的LIDAR技術書面與口頭溝通紀錄,並提交給Waymo。
另方面,Waymo在此同時也宣布與Uber在美國的主要競爭對手Lyft建立自動車駕駛員的合作夥伴關係,挑戰Uber乘車服務的市場地位。本案將於今年6月7日進行審判程序,後續值得持續關注。
因應生成式AI(Generative AI)快速發展,日本經產省和總務省彙整及更新自2017年起陸續發布之各項AI指引,於2024年1月19日共同公布「AI業者指引草案」(AI事業者ガイドライン案,以下簡稱指引),公開向民眾徵集意見。上述草案除提出AI業者應遵守以人為本、安全性、公平性、隱私保護、透明性、問責性、公平競爭、創新等共通性原則外,並進一步針對AI開發者(AI Developer)、AI提供者(AI Provider)及AI利用者(AI Business User)提出具體注意事項,簡述如下: (1)AI開發者:研發AI系統之業者。由於在開發階段設計或變更AI模型將影響後續使用,故指引認為開發者應事先採取可能對策,並在倫理和風險之間進行權衡,避免因重視正確性而侵害隱私或公平性,或因過度在意隱私保護而影響透明性。此外,開發者應盡量保留紀錄,以便於預期外事故發生時可以進行說明。 (2)AI提供者:向AI使用者或非業務上使用者提供AI系統、產品或服務之業者。提供者應以系統順利運作及正常使用為前提,提供AI系統和服務,並避免侵害利害關係人之利益。 (3)AI使用者:基於商業活動使用AI系統或服務之業者。使用者應於提供者所設定之範圍內使用AI,以最大限度發揮AI效益,提高業務效率及生產力。
英國發布人工智慧網路資安實務守則英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。
智慧聯網基礎設施與應用服務之法制建構-資訊安全與車聯網之例