美國聯邦第9巡迴上訴法院日前針對一項於2005年制定之加州法律進行罕見的聽審程序,以便決定此一州法是否因違反聯邦憲法第一修正案而無效。
此一法律之內容係禁止販售或出租暴力電玩予任何未滿十八歲之人,且要求此種電玩均須加以明確標誌。而電玩廠商則宣稱此一法律已侵犯了未成年人受憲法第一修正案所保護之言論自由。而值得注意者為,除去年下級法院已對此一案件做出電玩廠商勝訴之判決外,其他的州法院也紛紛做出具有類似限制內容之法律為違憲無效之判決。
然而,儘管如此,加州檢察總長Zackery Morazzini依然表示:州政府本即有權協助家長使未成年人遠離暴力電玩的不良影響。且美國聯邦最高法院亦已肯認禁止未成年人接觸明顯「性資訊」之法律為合憲。與此相同,暴力電玩可說亦同樣具有「猥褻」之特性。
而電玩廠商於訴訟中則表示:倘若此一法律得以合憲,則勢必會產生滑坡效應,即州政府勢必將會以保護兒童為藉口,而對於其它資訊,諸如同性戀、性教育、生育控制等等之提供作出更多的限制。而此種滑坡效應,顯然亦是第9巡迴上訴法院所關切的重點之一:如Alex Kozinski及Sidney Thomas兩位法官,均在聽審程序中特別表達對於此一效應的關注。
無論如何,上訴法院亦將於未來幾個月內對於此案做出判決。然而,顯而易見的是,無論上訴法院會如何裁判,本案最終仍須經聯邦最高法院裁決後方能有最終決定。
歐洲議會於2019年3月27日通過特定一次性塑膠產品禁令,該禁令最初由歐盟執委會於2018年5月提出作為「歐盟塑膠戰略」(EU Plastics Strategy)的一部份,其旨在減少特定塑膠產品對環境(特別是水生環境)及人類健康之影響, 同時促進轉向循環經濟,發展創新永續的商業模式。該禁令之規範重點如下: (1) 使用限制:規定若得以其他更環保物質替代的一次性塑膠產品(如棉花棒、一次性餐具、吸管、氣球棒等等) 至遲須於2021年前全面下架;而對於目前無更環保物質可替代的一次性塑膠產品,歐盟各成員國必須採取措施降低其銷售量;另外,自2024年開始,塑膠飲料容器僅限瓶蓋與瓶身有相連設計者,始可上市。 (2) 標示義務:對於被列管的一次性塑膠產品,必須標示其塑膠成分及含量、正確的棄置方式、以及任意棄置對環境的負面影響。 (3) 責任延伸:規定受本禁令所列管一次性塑膠產品之製造商,應按比例分擔有關其產品後續之清除、回收處理及公共教育宣傳成本。 (4) 訂定分類回收比率:訂立廢棄物分類回收量化目標,要求至2025年,一次性塑膠產品的正確分類回收率至少應達77%;至2029年達90%。 (5) 訂定再生料投入比率:規定自2025年開始,製造聚乙烯對苯二甲酸酯(Polyethylene Terephthalate, PET)塑膠飲料容器至少應使用25%的再生塑膠;而自2030年開始,至少使用30%;另要求歐盟執委會最遲應在2022年1月1日前制定相關行動方案及法令,以計算及核實前述再生塑膠使用目標。 (6) 環保教育義務:課予會員國採取措施以提高消費者認知以下事項之義務:(A)任意棄置一次性塑膠產品及塑膠漁具之環境負面影響(B)一次性塑膠產品及塑膠漁具之回收再利用系統與廢棄管理方案。 本禁令即將完成立法程序,只待歐洲理事會(European Council)正式批准並刊載於公報後,即能成為正式的歐盟指令,成員國嗣後應於2年內將指令中之各項要求轉化成國內法律。
美國著作權局拒絕人工智慧創作品之著作權申請2022年2月14日,美國著作權局(US Copyright Office)所屬之著作權審查委員會(Copyright Review Board),做出一件人工智慧(AI)創作作品不得申請著作權登記之決定,並聲明人類作者是著作權保護的必要前提。 本案申請人Stephen Thaler在2018年首次嘗試為AI「Creativity Machine」創作的藝術作品申請著作權登記,Stephen將Creativity Machine列為作者,並聲明其因擁有該AI而得透過美國著作權法第201條(b)項的受雇著作原則(work for hire)取得前述作品之所有權,且得為此作品申請著作權登記。然而,Stephen提出的申請沒有成功,著作權局認為依著作權法及相關判例,非出自於人類所作之作品不應受著作權保障,而本案AI之創作作品亦無人類的創意性投入或干預。在Stephen提出兩次複審後,著作權審查委員會在2022年做出機關最終決定,除重申僅人類之作品得受著作權保障以外,更進一步表示無權利能力的AI無法簽訂契約,故無受雇著作原則適用之可能。此外,著作權審查委員會亦指出受雇著作原則亦僅能表彰作品的所有權,並非作品是否得以受著作權保障之指標。 Stephen Thaler長年來不斷為AI之創作品爭取法律保護,除上述著作權外,其亦將名為DABUS的AI列為專利發明人,並以此就DABUS之發明在多個國家申請專利,而澳洲聯邦法院在2021年7月做出全球首個認為AI可作為專利發明人的判決。
英國發布人工智慧網路資安實務守則英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。
從國外案例談軟體漏洞資訊公布與著作權防盜拷措施