日本垃圾電郵法制2005年修正動態

刊登期別
2005年11月
 

※ 日本垃圾電郵法制2005年修正動態, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=749&no=64&tp=1 (最後瀏覽日:2025/12/06)
引註此篇文章
你可能還會想看
墨西哥聯邦資料保護法生效

  墨西哥的聯邦資料保護法在二0一0年四月經墨西哥國會通過後,已於同年七月六日生效。這個新法旨在保護個人的隱私權並強化個人對自身資訊的掌控。與我國新近通過的個人資料保護法相同,墨西哥的這個新法所規範的範圍也包括了私部門對個人資料的蒐集、處理與利用。   在新法通過之後,原本的聯邦公共資訊近用機構(Federal Institute for Access to Public Information),亦擴張執掌並更名為聯邦公共資料近用及資料保護機構(Federal Institute of Access to Information and Data Protection)。在新制下,該機構將在原有負責事務外,另肩負起監督私部門就個人資料保護的相關事務。   此外,該法設計了一個雙重的監督機制:當資料的蒐集、處理或利用人,也就是所謂的資料控制者(Data Controller)出現可能違反聯邦資料保護法的狀況,將先由各相關部門的主管機關,例如主管經濟事務的機關或主管交通事務的機關來介入處理,而非由聯邦公共資料近用及資料保護機構立刻介入。

老鼠耳朵LOGO引發商標之爭--迪士尼v.s.加拿大知名DJ

  加拿大知名DJ Deadmau5去年(2013年)6月向美國專利商標局申請一個貌似迪士尼米奇老鼠樣子的logo為商標(一個大圓加上兩個小圓盤當作耳朵),此舉引發迪士尼的不滿,於本週二向美國專利商標局提出異議。   迪士尼認為Deadmau5所申請的logo跟其知名的米奇老鼠耳朵(Mickey ears)太過近似,若美國專利商標局核准註冊Deadmau5的logo將可能對其在美國及世界各地的事業有所損害,所以迪士尼正試圖阻止Deadmau5於美國取得註冊商標。   根據Deadmau5的律師陳述,Deadmau5一直以來都帶著老鼠頭形狀的頭套出現在各場合,時間已長達10年已上,且已於超過30個國家取得老鼠頭形狀的註冊商標,包含日本、得國、義大利及英國等。   而此位33歲的知名DJ Deadmau5則於社群網路上發文表示他已經決定好要奮力對戰迪士尼,迪士尼此種積極保護其米奇老鼠商標的行為已行之有年、眾所皆知。例如1989年時迪士尼成功透過法律行動的威脅,讓位於佛羅里達州的三家幼兒照顧中心清除了原本漆於牆上的米奇老鼠和其他迪士尼卡通人物角色。   此次商標註冊爭議,迪士尼究竟能否成功阻止Deadmau5註冊取得類似米老鼠耳朵樣式的logo,值得後續關注。

諾基亞採用蘋果開放軟體

  手機大廠諾基亞( Nokia )將在下一代智慧手機的瀏覽器中,採用蘋果電腦的開放原始碼軟體。其預定在今年六月推出 Series 60 智慧手機軟體包,其中的瀏覽器將整合數個同於蘋果 Safari 網路瀏覽器的開放原始碼科技– WebCore 和 JavaScriptCore 。 Safari 是以開放原始碼 K Desk Environment 之 Konquerer 瀏覽器的 KHTML 與 KJS 為基礎。   諾基亞表示,採用開放碼軟體後,將更方便開發商修改定作其新瀏覽器,並將提供新的使用者功能。諾基亞並且表示,未來仍將與蘋果電腦合作開放原始碼軟體,並積極投入開放原始碼社群。諾基亞對開放原始碼的興趣,在瀏覽器部門特別明顯。兩年前,該公司投資 Mozilla 基金會的 Minimo 計劃,創造一種根據 Mozilla Gecko 翻譯引擎的電話瀏覽器。 Minimo 團隊準備在今夏推出針對微軟 Windows CE 作業系統的 0.1 版瀏覽器。

美國國家標準暨技術研究院發布「全球AI安全機構合作策略願景目標」,期能推動全球AI安全合作

美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)於2024年5月21日提出「全球AI安全機構合作策略願景目標」(The United States Artificial Intelligence Safety Institute: Vision, Mission, and Strategic Goals,下稱本策略願景),美國商務部(Department of Commerce)亦於2024年參與AI首爾峰會(AI Seoul Summit)期間對外揭示本策略願景,期能與其他國家攜手打造安全、可靠且可信賴之AI生態系。 由於AI可信賴與否往往取決於安全性,NIST指出當前AI安全所面臨的挑戰包含:一、欠缺對先進AI之標準化衡量指標;二、風險測試、評估、驗證及確效(Test, Evaluation, Validation, and Verification, TEVV)方法不健全;三、欠缺對AI建模後模型架構與模型表現間因果關係的了解;四、產業、公民社會、國內外參與者等在實踐AI安全一事上合作程度極為有限。 為因應上述挑戰並促進AI創新,NIST在本策略願景中擬定以下三大戰略目標:(1)推動AI安全科學發展:為建立安全準則與工具進行技術合作研究,並預先部署TEVV方法,以利評估先進AI模型之潛在風險與應對措施;(2)推展AI安全實務作法:制定並發布不同領域AI風險管理之相關準則與指標,以達到負責任設計、開發、部署與應用AI模型與系統之目的;(3)支持AI安全合作:促進各界採用前述安全準則、工具或指標,並推動全球合作,以發展國際通用的AI安全風險應對機制。

TOP