新近奈米科技智財法制之發展趨勢

刊登期別
第19卷,第5期,2007年05月
 

本文為「經濟部產業技術司科技專案成果」

※ 新近奈米科技智財法制之發展趨勢, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=2299&no=64&tp=1 (最後瀏覽日:2026/01/21)
引註此篇文章
你可能還會想看
Ralph Lauren於Polo商標圖樣使用爭議中勝出

  美國第二巡迴上訴法院於二月初判決知名品牌Ralph Lauren與美國馬球協會(U.S. Polo Association ) 自1984年開始爭執不休的馬球圖樣使用爭議由Ralph Lauren勝出,馬球協會不得使用polo圖樣於香氛與美妝產品類別,確認了2012年3月地方法院禁止馬球協會使用圖樣的判決。   自1890年以來主管美國馬球運動的美國馬球協會與Ralph Lauren的馬球員圖像恩怨可追溯回1984年,當時馬球協會以確認之訴贏得在未造成與Ralph Lauren知名的Polo品牌混淆的狀況下,馬球協會得製造授權商品。   在2012年的判決中,地方法院禁止美國馬球協會使用馬球員圖樣與POLO字樣在任何香水、美妝產品類別上,同時要求USPTO拒絕馬球協會部分的商標申請,該案法官裁決與香氛產品有關的圖樣侵害Ralph Lauren的商標權利,構成不公平競爭,同時也造成設計師與被授權人無法回復的損害。   馬球協會的律師團在上訴理由中主張:馬球員圖樣符合先前使用,同時,因為過往的判決賦予協會得使用該圖樣在服裝類產品,表示也可以使用在香氛類別,因為服裝跟香氛產品的市場是很相近的,但前述主張並不為第二巡迴上訴法院陪審團所認同。

品牌永續發展之關鍵-從商標維權使用角度觀之

歐盟發表網路博奕綠皮書(Green paper on on-line gambling)為網路博奕立法暖身

  歐盟於去年(2011)3月發布「網路博奕綠皮書(Green paper on on-line gambling)」,針對歐盟在網路博奕所面臨的問題提出解決對策,旨在尋求歐盟境內與網路博奕相關的利益團體支持立法推動。該綠皮書內容,主要包括以下幾項議題: 一、網路博奕服務業者之界定:歐盟內的各成員國間對於網路博奕服務業者的認定,以及發核發執照相關條件仍有分歧,使得部分業者無法在他國營業,故擬透過綠皮書諮詢各國現行制度,以及核發執照的實務,尋求認定服務實體能達一定共識。 二、提升網路博奕的服務:包括更簡易的支付方式(如使用信用卡、電子錢包、現金轉帳、預付卡等),以及提高網路中介服務提供者(ISP或網路資料儲存)的服務品質。 三、公共利益維護:包括消費者保護(如防範賭博成癮),公共秩序維護(防範詐欺、洗錢或其他犯罪)、以及博奕盈餘如何分配在公共利益事項等。 四、取締非法網路博奕服務:由於各成員國對於非法網路博奕業者或因執法不,導致非法的網路博奕服務在歐盟境內仍大行其道。故擬評估成員國執法與跨境合作現況,以及利用網路阻斷非法賭博的成效。   歐盟執委會在綠皮書公布後,利用2011年3月到7月四個月的時間蒐集包括一般公民、公、私博奕經營者,媒體相關業者,網路中介服務提供者(ISP、網路交易系統),體育賽事提供者等各界意見,並舉辦相關研討會,以討論當前歐盟網路博奕的相關問題。   根據最新消息,今年2月27日,歐盟執委會召集歐盟各國網路博奕管理機關以及專家,分就綠皮書、研討會之結論以及彙整而來的諮詢意見(共260份)加以討論。與會的歐洲博奕協會(European Gaming and Betting Association,EGBA)秘書長Sigrid Ligné支持執委會的作法,表示希望儘快推動具歐盟層級的網路博奕規範立法,以保障消費者的權益。歐盟執委會雖欲整合各成員國間有關博奕的法令,惟目前仍有反對聲浪,部分成員國希望能保有自己的網路博奕規範,故本案未來之發展,值得後續密切注意。

IBM提出「人工智慧日常倫理」手冊作為研發人員指引

  隨著人工智慧快速發,各界開始意識到人工智慧系統應用、發展過程所涉及的倫理議題,應該建構出相應的規範。IBM於2018年9月02日提出了「人工智慧日常倫理」(Everyday Ethics for Artificial Intelligence)手冊,其以明確、具體的指引做為系統設計師以及開發人員間之共同範本。作為可明確操作的規範,該手冊提供了問責制度、價值協同、可理解性等關注點,以促進社會對人工智慧的信任。 一、問責制度(Accountability)   由於人工智慧的決策將作為人們判斷的重要依據,在看似客觀的演算系統中,編寫演算法、定義失敗或成功的程式設計人員,將影響到人工智慧的演算結果。因此,系統的設計和開發團隊,應詳細記錄系統之設計與決策流程,確保設計、開發階段的責任歸屬,以及程序的可檢驗性。 二、價值協同(Value Alignment)   人工智慧在協助人們做出判斷時,應充分考量到事件的背景因素,其中包括經驗、記憶、文化規範等廣泛知識的借鑑。因此系統設計和開發人員,應協同應用領域之價值體系與經驗,並確保演算時對於跨領域的文化規範與價值觀之敏感性。同時,設計師和開發人員應使人工智慧系統得以「了解並認知」用戶的價值觀,使演算系統與使用者之行為準則相符。 三、可理解性(Explainability)   人工智慧系統的設計,應盡可能地讓人們理解,甚至檢測、審視它決策的過程。隨著人工智慧應用範圍的擴大,其演算決策的過程必須以人們得以理解的方式解釋。此係讓用戶與人工智慧系統交互了解,並針對人工智慧結論或建議,進而有所反饋的重要關鍵;並使用戶面對高度敏感決策時,得以據之檢視系統之背景數據、演算邏輯、推理及建議等。   該手冊提醒,倫理考量應在人工智慧設計之初嵌入,以最小化演算的歧視,並使決策過程透明,使用戶始終能意識到他們正在與人工智慧進行互動。而作為人工智慧系統設計人員和開發團隊,應視為影響數百萬人甚至社會生態的核心角色,應負有義務設計以人為本,並與社會價值觀和道德觀一致的智慧系統。

TOP