法商Parrot商標侵權及商業秘密洩漏案對外商於中國大陸規範人員管理的啟發

刊登期別
第27卷,第9期,2015年09月
 

※ 法商Parrot商標侵權及商業秘密洩漏案對外商於中國大陸規範人員管理的啟發, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7007&no=0&tp=1 (最後瀏覽日:2026/01/23)
引註此篇文章
你可能還會想看
從「氣候變遷行動方案」觀察美國能源科技法制政策發展

美國眾議院一致通過電子郵件保護法案

  美國眾議院於2016年4月27日一致同意通過支持電子郵件保護及雲端隱私法案(Email Privacy Act, EPA),本法案之後將會要求執法部門於搜查電子郵件或儲存於雲端設備的資料時,必須向法院取得搜查令,才能取得超過180天以上的資料。   本法案係針對1986年推出的《電子通信隱私法(Electronic Communication Privacy Act, ECPA》進行補強,因為目前科技的進步,早已遠超過ECPA是在網路興起前所得規制的範圍,在當初ECPA法案訂定之初,人民仍有定期刪除E-mail以保持硬碟空間的習慣,但相較於現在多數人都已使用雲端信箱的習慣下,如仍能讓警方等恣意調查任何人的信箱,往往可取得巨量的消息,因此本次的修正可預期將更能使相關規範符合時宜需求。   本次修正重點如下: 1.過往之ECPA規定要求聯邦機構在調查超過180天的電子郵件時只需要取得傳票即可,現在則是需要取得搜查令。 2.要求政府機構必須先取得法院的搜查令,才可以要求供應者揭露其保有之資訊。 3.要求執法部門應於取得資料的10天內向資料被揭露者提供相關證明,如涉及政府單位者則縮短至3天。   雖然EPA在眾議院內獲得美國兩黨的一致通過,但仍須經參議院下一波的投票表決,才能決定本案是否得順利通過。

美國大聯盟MLB控告遊戲卡商Upper Deck Entertainment侵害商標權

  美國大聯盟(Major League Baseball Properties , 簡稱MLB) 日前於美國紐約南區地方法院對美國運動遊戲卡製造商Upper Deck Entertainment (簡稱Upper Deck) 提出商標侵權訴訟,MLB主張Upper Deck於2009年到2010年期間所新製造、銷售、販賣之棒球卡系列上,球員制服上的隊名logo的標示為不當使用,侵害MLB之商標權;MLB並同時聲請暫時禁制令 (preliminary injunction),禁止Upper Deck之經銷商銷售、販賣相關系列商品。     2009年8月,MLB與另一運動遊戲卡製造商Topps簽定商標獨家授權合約,約定Topps為MLB唯一合法授權之美國大聯盟系列之棒球用品製造商,此一行為意謂Upper Deck與MLBP之間長達30年的合作關係宣告終止。故Upper Deck 2009-2010年之最新棒球卡上已未標示MLB之商標,而僅以職業棒球球員穿著該隊制服及棒球帽之肖像,甚至在稱呼球隊名稱時也刻意省略隊名,僅以地名代替,如波士頓紅襪隊(Boston Sox)僅簡稱波士頓(Boston);然而,此舉仍被MLB認為係不當使用MLB商標而提起商標侵權訴訟。Upper Deck稍早僅向經銷商表示,其所製造及販賣之商品並無侵害MLB的商標權,亦無不合法。另,1998年MLB同樣以Pacific Trading Card, Inc.所製造、銷售的運動卡未經MLB商標授權為理由,向紐約法院聲請暫時禁制令,禁止Pacific之經銷商販售相關產品,但紐約法院駁回MLB禁制令之聲請,雖然MLB當時有上訴至第二循廻法院,卻因嗣後與Pacific和解而撤回本件上訴案。故,MLB此次所聲請之暫時禁制令的發展,未必不利於Upper Deck。     目前本案僅MLBP提出聲明,Upper Deck之抗辯尚未公開,MLBP先前與Pacific之商標侵權案以和解終結,本案Upper Deck之使用方式是否侵害MLBP所擁有之30隊美國大聯盟職棒logo及隊名之商標權,將待法院後續判決。

IBM提出「人工智慧日常倫理」手冊作為研發人員指引

  隨著人工智慧快速發,各界開始意識到人工智慧系統應用、發展過程所涉及的倫理議題,應該建構出相應的規範。IBM於2018年9月02日提出了「人工智慧日常倫理」(Everyday Ethics for Artificial Intelligence)手冊,其以明確、具體的指引做為系統設計師以及開發人員間之共同範本。作為可明確操作的規範,該手冊提供了問責制度、價值協同、可理解性等關注點,以促進社會對人工智慧的信任。 一、問責制度(Accountability)   由於人工智慧的決策將作為人們判斷的重要依據,在看似客觀的演算系統中,編寫演算法、定義失敗或成功的程式設計人員,將影響到人工智慧的演算結果。因此,系統的設計和開發團隊,應詳細記錄系統之設計與決策流程,確保設計、開發階段的責任歸屬,以及程序的可檢驗性。 二、價值協同(Value Alignment)   人工智慧在協助人們做出判斷時,應充分考量到事件的背景因素,其中包括經驗、記憶、文化規範等廣泛知識的借鑑。因此系統設計和開發人員,應協同應用領域之價值體系與經驗,並確保演算時對於跨領域的文化規範與價值觀之敏感性。同時,設計師和開發人員應使人工智慧系統得以「了解並認知」用戶的價值觀,使演算系統與使用者之行為準則相符。 三、可理解性(Explainability)   人工智慧系統的設計,應盡可能地讓人們理解,甚至檢測、審視它決策的過程。隨著人工智慧應用範圍的擴大,其演算決策的過程必須以人們得以理解的方式解釋。此係讓用戶與人工智慧系統交互了解,並針對人工智慧結論或建議,進而有所反饋的重要關鍵;並使用戶面對高度敏感決策時,得以據之檢視系統之背景數據、演算邏輯、推理及建議等。   該手冊提醒,倫理考量應在人工智慧設計之初嵌入,以最小化演算的歧視,並使決策過程透明,使用戶始終能意識到他們正在與人工智慧進行互動。而作為人工智慧系統設計人員和開發團隊,應視為影響數百萬人甚至社會生態的核心角色,應負有義務設計以人為本,並與社會價值觀和道德觀一致的智慧系統。

TOP