美國第二巡迴上訴法院於二月初判決知名品牌Ralph Lauren與美國馬球協會(U.S. Polo Association ) 自1984年開始爭執不休的馬球圖樣使用爭議由Ralph Lauren勝出,馬球協會不得使用polo圖樣於香氛與美妝產品類別,確認了2012年3月地方法院禁止馬球協會使用圖樣的判決。
自1890年以來主管美國馬球運動的美國馬球協會與Ralph Lauren的馬球員圖像恩怨可追溯回1984年,當時馬球協會以確認之訴贏得在未造成與Ralph Lauren知名的Polo品牌混淆的狀況下,馬球協會得製造授權商品。
在2012年的判決中,地方法院禁止美國馬球協會使用馬球員圖樣與POLO字樣在任何香水、美妝產品類別上,同時要求USPTO拒絕馬球協會部分的商標申請,該案法官裁決與香氛產品有關的圖樣侵害Ralph Lauren的商標權利,構成不公平競爭,同時也造成設計師與被授權人無法回復的損害。
馬球協會的律師團在上訴理由中主張:馬球員圖樣符合先前使用,同時,因為過往的判決賦予協會得使用該圖樣在服裝類產品,表示也可以使用在香氛類別,因為服裝跟香氛產品的市場是很相近的,但前述主張並不為第二巡迴上訴法院陪審團所認同。
陳水扁總統表示,行政院推動「加強生物技術產業推動方案」,將在5年內帶動1500億元投資、10年內成立500家以上生技公司,打造台灣成為亞太地區生技創投、研發以及營運中心。他期盼中研院基因體研究中心大樓加中研院頂尖研究團隊,如同承載台灣「兩兆雙星」中生技之星的「子彈列車」,引領台灣生技產業超越各國,奔馳在世界最前端。 陳總統表示,本世紀人類基因體序列的解碼,開創並主導了生技產業革命性的發展,展望未來,生命科學家所面臨的挑戰,將更著重於瞭解基因的複雜性、以及解析蛋白質結構與功能,並藉此發展新的生技醫療產品,以改良人類生活及生命品質。 有鑑於「基因與蛋白體研究」是全球廣泛重視的尖端科學,陳總統說,政府自2002年即進行「基因體醫學國家型計畫」,在各地籌建基礎設施和研發中心,而「中研院基因體研究中心」正是推展計畫的核心工程。他相信,這項重大投資將提供一個健全的研發環境及專業技術平台,協助台灣的生技產業掌握市場利基,進而落實行政院在「加強生物技術產業推動方案」中所訂定各項發展目標。
台灣自由軟體今年產值逾12億MIC資料顯示,台灣自由軟體產業軟硬體的相關產值從2003年的135億,至今年可望成長至新台幣290億。如果單看自由軟體的產值,今年可望超過新台幣12億,較去年成長26%。 資策會表示,在政策推動下,自由軟體的需求面有逐漸增加的趨勢。就市場整體來看,我國自由軟體產業的產值,今年上半年達到新台幣5億9000萬,全年將超過12億,達到12億3700萬,而從2002年至2006年,台灣自由軟體產業軟體產值的年複合成長率高達55%。 預期到2007年,自由軟體產值可望達新台幣100億元,投入軟體開發廠商將達50%,而政府單位的個人電腦使用比例可望達到10%。
歐盟公布資料保護相關指令適用意見書由歐盟二十七個會員國資料保護主管機關組成的第二十九條資料保護工作小組(The Article 29 Working Party)最近公布其應適用何國資料保護法規之意見書。 歐盟資料保護指令(EU Data Protection Directive)第四條對於蒐集或處理個人資料所應適用之法規有所規範,依該條規定,機構必須依其成立之國別適用該國資料保護法規;機構若於其他國家裝置設備處理資料,則須遵守設備所在地之法令。 隨著全球化的趨勢與新興科技的發展,目前處理資料機構之運作方式已與當初制定指令時有所不同,許多機構在世界各國設置營運點,向全球各地提供各類型服務,尤其是網際網路的發展,使得遠端服務及在虛擬環境下分享個人資訊更為容易,但同時也增加辨識資料處理所在地之困難度,因此工作小組提出該意見書,希望藉此釐清資料保護指令第四條之適用。 工作小組於該意見書中指出,資料保護指令所指的應適用法規,並非資料控制者(data controller)所在地之法規,而是附屬於該資料控制者並實質進行資料處理之機構的所在地法規。蓋因同一資料控制者可能在數國成立附屬機構,在此種狀況下判別適用法規的標準,應視實際上相關資料處理活動的發生地,亦即處理資料機構所在地。 而針對處理個人資料所使用之設備,工作小組表示,即使處理資料之機構並未擁有設備,而使用該設備處理個人資料時,亦可適用指令第四條之規定,需遵守設備所在地之相關法規;但工作小組同時特別釐清,以電信電纜或郵政服務等方式傳輸資料並不會落入資料保護法規之範疇。
日本發布利用AI時的安全威脅、風險調查報告書,呼籲企業留意利用AI服務時可能造成資料外洩之風險日本獨立行政法人情報處理推進機構於2024年7月4日發布利用AI時的安全威脅、風險調查報告書。 隨著生成式AI的登場,日常生活以及執行業務上,利用AI的機會逐漸增加。另一方面,濫用或誤用AI等行為,可能造成網路攻擊、意外事件與資料外洩事件的發生。然而,利用AI時可能的潛在威脅或風險,尚未有充分的對應與討論。 本調查將AI區分為分辨式AI與生成式AI兩種類型,並對任職於企業、組織中的職員實施問卷調查,以掌握企業、組織於利用兩種類型之AI時,對於資料外洩風險的實際考量,並彙整如下: 1、已導入AI服務或預計導入AI服務的受調查者中,有61%的受調查者認為利用分辨式AI時,可能會導致營業秘密等資料外洩。顯示企業、組織已意識到利用分辨式AI可能帶來的資料外洩風險。 2、已導入AI利用或預計導入AI利用的受調查者中,有57%的受調查者認為錯誤利用生成式AI,或誤將資料輸入生成式AI中,有導致資料外洩之可能性。顯示企業、組織已意識到利用生成式AI可能造成之資料外洩風險。 日本調查報告顯示,在已導入AI利用或預計導入AI利用的受調查者中,過半數的受調查者已意識到兩種類型的AI可能造成的資料外洩風險。已導入AI服務,或未來預計導入AI服務之我國企業,如欲強化AI資料的可追溯性、透明性及可驗證性,可參考資策會科法所創意智財中心所發布之重要數位資料治理暨管理制度規範;如欲避免使用AI時導致營業秘密資料外洩,則可參考資策會科法所創意智財中心所發布之營業秘密保護管理規範,以降低AI利用可能導致之營業秘密資料外洩風險。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)