2019年7月25日,紐約州州長Andrew Cuomo簽署「防止非法侵入與加強電子資料安全法案」(S.5575B/A.5635/Stop Hacks and Improve Electronic Data Security Act, 又稱SHIELD Act),目的在讓處理消費者個人資料的企業承擔更嚴格的責任。其核心精神在於,一旦發生與資料外洩相關的安全漏洞時,能及時進行適當的通知。同時,修改紐約州現有的資料外洩通知法,擴大個資蒐集適用範圍、個資定義 (例生物特徵、電郵資訊等)及資料洩漏定義、更新企業或組織之通知程序、建立合於企業規模之資料安全要求。此外,如違反通知義務,將處以最高5千美元或每次(未履行通知義務)20美元 (上限25萬美元)的民事賠償。且美國司法部長(The Attorney General) 亦得以紐約人民名義,代為起訴未實施資料安全規畫的企業,並按紐約民事執行法與規則(The Civil Practice Law And Rules)第63條進行初步救濟,依法強制禁止侵害行為繼續發生。該法預計將於2020年3月1日生效。 當天州長亦簽署「身份盜用預防措施和緩解服務修正案」(A.2374/S.3582),新增資料外洩安全保護措施,要求消費者信用機構,提供受安全漏洞影響的消費者「身份盜用預防措施」(Identity Theft Prevention )與「緩解服務」(Mitigation Services),為消費者制定長期最低度的保護手段。其要求信用機構,通知消費者將有關社會安全號碼的資料洩漏事件進行信用凍結,並提供消費者無償凍結其信用的權利。該法預計將於2019年10月23日生效,並且溯及既往適用該法案生效之日前三年內所發生之任何違反消費者信用安全的行為。
美國上訴法院認為《Oh, the Places You’ll Boldly Go!》即使混搭了《Star Trek》角色元素 但並未批判蘇斯博士企業之原著而缺乏轉化性、非屬著作權之合理使用美國聯邦第九巡迴上訴法院於2020年12月針對繼承知名美國兒童繪本暢銷漫畫家蘇斯博士(Dr. Seuss)豐沛創作智財權之蘇斯博士企業(Dr. Seuss Enterprises,後稱原告)指控ComicMix公司及其三位創作成員(後稱被告)侵犯其著作權與商標權一案,作出認定被告侵害原告之著作權判決。 原告指出被告儘管混搭了《星艦迷航記》(Star Trek)之角色元素而提出《Oh, the Places You’ll Boldly Go!》(後稱系爭創作),然而實質上卻抄襲了蘇斯博士於1990年所創作的《Oh, the Places You'll Go!》(後稱原創作),並將該系爭創作於募資平台Kickstarter上籌措出版經費;在2019年3月一審判決中,被告宣稱其以戲謔方式呈現該系爭創作而被美國加州南區聯邦地方法院所採認,即該系爭創作具轉化性(transformative)而屬於著作權之合理使用,為此原告上訴至美國聯邦第九巡迴上訴法院。 上訴法院之判決主要根據美國著作權法第107條合理使用之四項判斷原則,該系爭創作僅僅呼應原創作而未對其進行嘲諷,且亦未增加任何新的表達、意義或訊息,因而認定該系爭創作並不具轉化性且無疑地將該系爭創作進行商業性使用,此外戲謔手法必須在有對受著作權所保護之創作進行批判或評論的情況下才會成立。其中,第三項要素「所利用之質量及其在整個著作所占之比例」為判決之關鍵所在,以量而言,將近百分之六十原創作被該系爭創作所複製,就質而論,該系爭創作竊取了原創作之核心;針對第四項要素「利用結果對著作潛在市場與現在價值之影響」,也因為未具轉化性與商業性使用而實質傷害原創作之市場價值,因而推翻一審判決認定系爭創作侵害原創作之著作權。 至於商標權侵害部分,儘管原創作具獨特品牌字體與創作風格,但上訴法院認為該些獨特風格不應該限制其他創作者之藝術表現,在權衡系爭創作之表達詮釋且未明確誤導消費者該系爭創作之來源,最終駁回原告商標侵權之主張。 「本文同步刊登於TIPS網站(https://www.tips.org.tw )」
英國發布人工智慧網路資安實務守則英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。