美國加州議會於2019年9月12日通過《加州法案AB 824,商業:保持人們對負擔得起的藥物之近用(California AB 824 - Business: preserving access to affordable drugs)》(下稱AB 824法案),其主要規範藥品專利侵權和解協議中之「遲延給付(pay for delay)」條款,推定其具有反競爭性,為美國第一部規範製藥公司之間簽訂遲延給付條款之州法。 於AB 824法案中,其規範對象為學名藥與生物相似性藥物之藥證申請人,統稱為「非參照藥物申請者(Nonreference drug filer)」。其規定若用來解決專利侵權之協議為「非參照藥物申請者」從主張專利被侵害的公司處接受任何有價值之物,且同意於一段期間內限制或放棄學名藥或生物相似性藥品的研究、開發、製造、上市、銷售,則該協議推定具有反競爭效果。惟例外若能證明「非參照藥物申請者」所獲得之價值僅對其他商品或服務是公平合理的補償、協議直接產生了競爭優勢,協議的競爭優勢大於協議的反競爭效果,則反競爭性之推定可舉上述事由為證而推翻。每次違規行為可處以高達2000萬美元或「非參照藥物申請者」收到的價值三倍的罰款,以數額高者為準。 AB 824法案減輕政府舉證責任的負擔,將主張和解協議不具反競爭效果之舉證責任轉移至和解協議當事人身上,且因此種推定,當事人必須向政府揭露更多和解協議之資訊,而增加協議之透明度。
線上遊戲「Second Life」大筆玩家資料外洩線上遊戲新奇的聲光效果與眾多同儕參與的凝聚感,吸引全球玩家爭先投入此一新興娛樂領域之際,遊戲本身的安全性卻也格外值得重視。知名的線上遊戲「 Second Life 」驚傳個人資料外洩事件,遊戲營運商「 Linden Lab 」 9 月 10 號發布公開聲明,表示「 Second Life 」遊戲伺服器於同月 6 日遭到駭客入侵,總計約有 65 萬名玩家的個人資料遭竊。 廣受全球玩家青睞的多人線上角色扮演遊戲( Massive Multiplayer Online Role Playing Game ; MMORPG )「 Second Life 」採取全然的 3D 介面( three-dimensional ),遊戲當中所有的虛擬物件,包括角色、道具與各式各樣的配件均由個別玩家設計與創造,玩家可在遊戲中從事虛擬土地及建築物的買賣並賺取遊戲虛擬貨幣( Linden Dollars );玩家亦可將遊戲中獲取的虛擬貨幣於真實社會中進行現金交易。 營運商「 Linden Lab 」表示,此次駭客係利用「 Zero-Day Exploit 」技術滲透遊戲伺服器,外洩的個人資料包括了玩家姓名、住址、帳號密碼及其信用卡卡號等。 Linden Lab 除已要求所有的玩家立即更改密碼,並將在遊戲的部落格( blog )中提供新的安全方案。
英國資訊委員辦公室(ICO)針對COVID-19接觸史追蹤應用程式框架,發布意見報告英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2020年4月17日,依據英國資料保護法(Data Protection Act 2018)第115條第3項第b款之授權,針對2020年4月10日Apple和Google因應COVID-19疫情發表之「接觸史追蹤應用程式框架」(Contacting Tracing Framework, CTF),發布意見報告。報告認為,由於CTF具備以下三大特性:(1)不會在裝置間交換個人資料,如帳戶資訊或使用者名稱;(2)配對過程僅在裝置本身進行,並不會有如應用程式伺服器之第三方介入;(3)不需要地理位置資訊就能順利運作,因此符合英國資料保護法第57條有關「透過設計並作為預設以保護個人資料」(Data protection by design and default)之規定。 縱然CTF符合英國資料保護法之規定,英國資訊委員辦公室仍於報告中指出:「未來軟體開發商若於接觸史追蹤應用程式中使用CTF技術,該應用程式於處理使用者之個人資料時,仍應隨時符合英國資料保護法關於透過設計並作為預設以保護個人資料之規定。」COVID-19疫情席捲全球,如何於「掌握感染者接觸史以預防疫情擴散」與「保障個人資料及隱私」間取得平衡,實為各國政府需考量之重要議題。我國人工智慧實驗室於2020年4月開發之「社交距離App」,便是使用類似Apple和Google之CTF技術。此份英國資訊委員辦公室意見報告,等於針對社交距離App是否侵害隱私權益,提供相當解答與指引。
英國發布人工智慧網路資安實務守則英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。