日本經濟產業省(下稱經產省)於2023年6月6日發布中小企業開發IoT機器之產品資安對策指引(IoT機器を開発する中小企業向け製品セキュリティ対策ガイド),本指引彙整企業應該優先推動IoT機器資安對策,經產省提出具體資安對策如下:
1.制定產品資安政策(セキュリティポリシー)並廣為宣導:由企業經營者率先制定資安政策,進行教育宣導,並依實際需求修正調整。
2.建立適當的資安政策體制:確立實施資安政策必要之人員及組織,明確其職務及責任。
3.指定IoT機器應遵守之資安事項,並預測風險:決定IoT機器的預設使用者及使用案例,並於釐清使用者需求後,指定IoT機器應遵守之資安事項,預測衍生風險。
4.考量IoT機器應遵守之資安事項及預測風險,進行設計與開發:以預設IoT機器應遵守之資安事項衍生風險為基礎,從設計與開發階段開始採取風險對策。
5.檢測是否符合資安相關要件:從設計與開發階段開始制定檢測計畫,檢測是否符合資安要件,並依據檢測結果進行改善。
6.於產品出貨後蒐集風險資訊,與相關人員溝通並適時提供支援:蒐集全球資安事故與漏洞資訊,並設置可適時與委外廠商以及用戶溝通之窗口。
美國最高法於近日判決電影編劇Frank Petrella之女得對電影公司MGM對其父親於1963年以世界中量級拳王Jake LaMotta生平創作的劇本蠻牛(Raging Bull)持續性的商業利用行為提出侵權訴訟。 本案緣起於在美國著作權法下,1978年以前發表的著作受到28年的著作權保護,並得於到期後延展保護67年,而若作者在延展之前死亡亦即本案情形,著作受讓人僅得於繼承人移轉延展權的情況下繼續使用,而著作權法507(b)規定民事賠償請求需於侵權行為發生後的三年內提出。 原告編劇Frank Petrella之女於2009年向MGM提出2006年後侵權行為之賠償,MGM則以法律不保護權利怠於行使之人(thedoctrine of laches)作為抗辯,主張原告不得起訴。地方法院及第九巡迴上訴法院皆贊同被告MGM之主張,認為原告於1991年延展著作權保護時即知悉,此舉對MGM並不合理且帶有偏見。 最高法院近日推翻下級法院的看法,認為權利行使怠惰並不阻卻權利人對請求權時效內發生的侵權行為提出訴訟,同時更進一步釐清著作權法507(b)允許權利人評估值得尋求訴訟救濟的時間點,除非權利人刻意誤導第三人不會對其起訴,而這是禁反言原則(thedoctrine of estoppel)的問題,本案下級法院顯然混淆了二者之區別,從而肯定原告有權向MGM請求著作權侵害之損害賠償。
費城將對含糖飲品課徵稅捐費城市議會於105年6月17日以13票對4票通過對含糖飲料每盎司課徵1.5美分的稅,預計於106年1月正式實施。 由於含糖飲料,容易導致肥胖及糖尿病,尤其在費城有68%的成人與41%的孩童過胖,此法案目的即在於勸阻消費者將多餘的錢用來購買這些不健康的飲料,希望能藉此幫助他們更健康。此法案通過後,估計每瓶裝兩公升的飲料及六盒裝的蘇打水各將漲價1美元左右,但是牛奶、新鮮水果或蔬菜含量50%以上的飲料則不在課稅範圍。此外,那些可以讓消費者自己添加糖的飲料,譬如咖啡,也不在課稅範圍,這意味著運動飲料、糖水、罐裝咖啡以及已添加糖的茶類都將被課稅,故有稱之為「汽水稅」。 依據費城財政局預估,汽水稅將使市府稅收增加9,100萬美元,預計運用在學前托兒班,學校,圖書館,娛樂中心,及其他公共場所,稅收也將資助抵免販售健康飲品企業的稅收。市長 Jim Kenny 也公開支持這項稅收,並在法案通過後表示這項稅收對於該市的社區及教育系統將會帶來歷史性的貢獻。 根據費城市新聞網(Philly.com)於16日報導:「這項稅收的徵收對象為飲料經銷商,目前尚無法統計將有多少稅收能回饋給消費者,但是估計12盎司的飲料約徵收18美分,2公升的飲料約徵收1美元,以及12瓶裝的飲料約徵收2.16美元。」。為此,飲料業者表達激烈的反對,並在法案通過後發表聲明表示將採取法律行動,並表示此項稅收並未考慮到低收入戶以及消費者對於無熱量飲料的選擇,所以是不公平的。而且這項稅收不僅影響費城人,對於所有美國人來說具有歧視性且極不受到歡迎。儘管美國飲料協會耗費了大筆的廣告費用來阻擋這項稅法的通過,費城市議會最後仍通過這項法案。 類似法案早在2014年,加州柏克萊市就已通過。只是,費城成為全美第一個針對含糖飲料課稅的大城市,其造成之影響較為顯著,目的在於減少含糖飲料的消費。至於其他城市,包括San Francisco(舊金山) 和 Boulder, Colo.(科羅拉多波德),正在考慮相似的立法,不過至今尚未通過。
法國國家資訊自由委員會將推出符合GDPR的人工智慧操作指引(AI how-to sheets)法國國家資訊自由委員會(CNIL)於2023年10月16日至11月16日進行「人工智慧操作指引」(AI how-to sheets)(下稱本指引)公眾諮詢,並宣布將於2024年初提出正式版本。本指引主要說明AI系統資料集建立與利用符合歐盟一般資料保護規則(GDPR)之作法,以期在支持人工智慧專業人士創新之外,同時能兼顧民眾權利。 人工智慧操作指引主要內容整理如下: 1.指引涵蓋範圍:本指引限於AI開發階段(development phase),不包含應用階段(deployment phase)。開發階段進一步可分為三階段,包括AI系統設計、資料蒐集與資料庫建立,以及AI系統學習與訓練。 2.法律適用:當資料處理過程中包含個人資料時,人工智慧系統的開發與設計都必須確定其適用的法律規範為何。 3.定義利用目的:CNIL強調蒐集及處理個資時應該遵守「明確」、「合法」、「易懂」之原則,由於資料應該是基於特定且合法的目的而蒐集的,因此不得以與最初目的不相符的方式進一步處理資料。故明確界定人工智慧系統之目的為何,方能決定GDPR與其他原則之適用。 4.系統提供者的身分:可能會是GDPR中的為資料控管者(data controller)、共同控管者(joint controller)以及資料處理者(data processor)。 5.確保資料處理之合法性:建立AI系統的組織使用的資料集若包含個人資料,必須確保資料分析與處理操作符合GDPR規定。 6.必要時進行資料保護影響評估(DIPA)。 7.在系統設計時將資料保護納入考慮:包含建立系統主要目標、技術架構、識別資料來源與嚴格篩選使用…等等。 8.資料蒐集與管理時皆須考慮資料保護:具體作法包含資料蒐集須符合GDPR、糾正錯誤、解決缺失值、整合個資保護措施、監控所蒐集之資料、蒐集之目的,以及設定明確的資料保留期限,實施適當的技術和組織措施以確保資料安全等。 對於AI相關產業從事人員來說,更新AI相關規範知識非常重要,CNIL的人工智慧操作指引將可協助增強AI產業對於個資處理複雜法律問題的理解。