今年5月26日,歐盟高等法院做出裁決,認為魔術方塊不應擁有立體商標權的保護,結束了長達十年的魔術方塊立體商標權爭議。而本案於11月10日已結束聽證會(full hearing),多數意見仍然支持法院的觀點。
歐盟高等法院認為,魔術方塊的立體造型外觀,已成為他3D多面旋轉功能不可或缺的一部分,如果賦與其商標權保護,由於商標權可無限期展延的特性,等於永久阻止所有相同或類似造型外觀的產品上市,間接妨礙了技術上的突破與創新,形成一種相同或類似技術上的獨占地位(monopoly)。裁決更指出,其應以專利權作為申請標的,以保障發明人智慧財產權,而非以商標權變相延伸專利權的保護範圍。
在類似的案例中,雀巢的四指造型巧克力被歐盟法院(CJEU)駁回,理由之一為產品形狀為達到技術結果的必須條件(該造型提供了掰開巧克力的獨特方式),與本案有異曲同工之妙。
然而,反對見解認為,如不賦與魔術方塊立體商標,等於鼓勵仿冒者用相同或類似外觀作為商標使用,而不論該仿品外觀是否確實賦與相同之技術結果,間接限縮了立體商標權的保護效力。
我國立體商標審查基準中也有類似的規定,排除具有功能性的外觀造型註冊立體商標。然而,應該思考的毋寧是,當產品技術水準無法成功申請專利權保護時,如同時駁回該產品外觀的立體商標註冊,則該如何維護該產品的智慧財產權,又該如何防止他人抄襲與仿冒,是本案遺留下的重要問題。
歐盟執委會於2020年11月10日對Amazon發佈反托拉斯調查之初步調查結果,針對其2019年7月之首次調查提出調查意見書(Statement of Objections, SO),認定Amazon使用大量非公開賣家資料,減少自身作為零售商之競爭風險,相關可能違反歐盟運作條約(TFEU)第102條禁止濫用市場主導地位。 歐盟於2019年7月17日對Amazon展開首次反托拉斯調查。Amazon作為平台,具有雙重身分,第一個身分是作為零售商,在網站上銷售商品;第二個身分是作為平台商,提供第三方賣家銷售商品的市場。因此歐盟認為Amazon在平台上收集價格或活動統計資料,將調查Amazon和第三方賣家的標準協議中,是否允許Amazon分析賣家的買賣統計資料?以及第三方賣家使用「黃金購物車」(Buy Box)的機制為何? 歐盟執委會調查說明,Amazon作為平台,可以大量使用第三方賣家資料,例如訂購及發貨數量、賣家收入、報價次數、物流資料、賣家表現評價、消費者索賠資訊等。然而相關統計數字及資料進入Amazon業務自動化系統,使Amazon零售業務可以大量使用上述非公開資料,以調整自身產品零售報價和業務決策,降低自身作為零售商的市場競爭風險。 此外,歐盟執委會認為,Amazon的「黃金購物車」和「Prime label」機制,使平台上的第三方賣家必須選擇使用Amazon物流、倉儲和售後服務(Fulfillment by Amazon, FBA),才能取得平台的「黃金購物車」和「Prime label」標章,才可能增加產品搜尋曝光度、交易成功率,進而提高銷售量(據統計,Amazon平台超過八成之交易是透過黃金購物車完成)。因此導致消費者大多選擇購買曝光度高、也就是使用Amazon物流的賣家,形成賣家之間的不公平競爭。歐盟執委會後續將啟動第二輪調查,且未言明結束調查時間。
歐盟網路與資訊安全局暨網路安全認證規則要求進行「網路安全認證機制」歐盟執委會於2019年6月正式通過「歐盟網路與資訊安全局暨網路安全認證規則(EU Regulation on ENISA and Cyber Security Certification)(Regulation (EU) 2019/881)。規則新增歐盟網路與資訊安全局(European Union Agency for Network and Information Security,ENISA)之職責,負責推行「網路安全認證機制(European cybersecurity certification scheme)」。 網路安全認證機制旨在歐盟層面針對特定產品、服務及流程評估其網路安全。運作模式是將產品或服務進行分類,有不同的評估類型(如自行評估或第三方評估)、網路安全規範(如參考標準或技術規範)、預期的保證等級(如低、中、高),並給予相關之認證。為了呈現網路安全風險的程度,證明書上可以使用三個級別:低、中、高(basic,substantial,high)。若資訊安全事件發生時,對產品、服務及流程造成影響時,廠商應依據其產品或服務之級別採行相對應的因應對策。若被認證為高等級的產品,則表示已經通過最高等級的安全性測試。 廠商之產品或服務被認可後會得到一張認證書,使企業進行跨境交易時,能讓使用者更方便理解產品或服務的安全性,供應商間能在歐盟市場內進行良好的競爭,從而產生更好的產品及性價比。藉由該認證機制所產生的認證書,對於市場方將帶來以下之效益: 一、產品或服務的提供商(包括中小型企業和新創企業)和供應商:藉由該機制獲得歐盟證書,可以在成員國中提升競爭力。 二、公民和最終使用者(例如基礎設施的運營商):針對日常所需的產品和服務,能做出更明智的購買決策。例如消費者欲購買智慧家具,就可藉由ENISA的網路安全認證網站諮詢該產品網路安全資訊。 三、個人、商業買家、政府:在購買某產品或服務時,可以藉此機制讓產品或服務的資訊透明化,以做出更好的抉擇。
美國生技學名藥法案不利廉價藥品供應近來國際藥商逐漸將研發眼光放在市面上既存的蛋白質生技學名藥(follow-on biologics, Biosimilar, Biogenerics)上,顧名思義,生技學名藥乃是仿製市面上的生技藥品,而在臨床效用上與所仿製的藥品完全一樣或只是做些微調整改良。 目前生技學名藥並無法適用Hatch-Waxman Act下之「簡易新藥申請」(Abbreviated New Drug Application,ANDA)程序,原因在於生技製藥通常為複雜的大分子,難以確認其與上市產品100%相同,故美國FDA採取另立新法管理的態度,但迄今仍未通過任何法律。在歐盟,由歐洲藥品管理局(European Medicines Agency)所發布的生技學名藥核准準則只要求藥商提出其分子具有與上市藥品相同之物理特性及毒性安全數據即可上市,故現行已有少部分生技學名藥在歐洲上市。 因而藥商在無簡易上市的程序下,只能循完整的臨床有效性試驗程序。事實上這與現行美國擬對生技學名藥上市管理所提出的法律草案內容一致,目前提出於國會山莊的三個法律草案版本(Sen. Ted Kennedy’s S.1695, Sen. Judd Gregg’s S.1505 & Rep. Anna Eshoo’s H.R.5629)皆強制大部分生技學名藥上市前必須經過完整的臨床有效性試驗。 相反的,傳統學名藥在自1984年的Hatch-Waxman Act以來,並無需進行最昂貴的第二及第三階段之臨床試驗,也因此對於病患、消費者等而言,生技學名藥價格並不友善,通常只比其所仿製的上市藥品便宜一至二成,在有市場利基的功用調整下則有可能更貴;這比起競爭激烈的學名藥價格動輒較其原始藥品便宜五成以上相去甚多。並且所費不貲的臨床實驗亦將使生技學名藥只有擁有龐大資源的少數大藥廠能取得入場門票,因此專家預估生技學名藥的立法並不會像Hatch-Waxman Act一樣,進而形成生技學名藥業(generic biotech industry),而是形成所謂的生技仿製業(me-too industry)。
美國加州「Asilomar人工智慧原則決議」美國加州議會於2018年9月7日通過Asilomar人工智慧原則決議(23 Asilomar AI Principles, ACR-215),此決議表達加州對於「23條Asilomar人工智慧原則」之支持,以作為產業或學界發展人工智慧、政府制定人工智慧政策之指標,並提供企業開發人工智慧系統時可遵循之原則。依此法案所建立之重要指標如下: (1)於研究原則上,人工智慧之研究應以建立對於人類有利之人工智慧為目標。 (2)於研究資助上,人工智慧之研究資助應著重幾個方向,如:使人工智慧更加健全且可抵抗外界駭客干擾、使人工智慧促進人類福祉同時保留人類價值以及勞動意義、使法律制度可以順應人工智慧之發展。 (3)於科學政策之連結上,人工智慧研究者與政策擬定者間應有具有建設性且健全之資訊交流。 (4)於研究文化上,人工智慧研究者應保持合作、互信、透明之研究文化。 (5)於安全性上,人工智慧研究團隊應避免為了研究競爭而忽略人工智慧應具備之安全性。 (6)人工智慧系統應該於服務期間內皆具備安全性及可檢視性。 (7)人工智慧系統之編寫,應可使外界於其造成社會損失時檢視其出錯原因。 (8)人工智慧系統如應用於司法判斷上,應提供可供專門人員檢視之合理推論過程。 (9)人工智慧所產生之責任,應由設計者以及建造者負擔。 (10)高等人工智慧內在價值觀之設計上,應符合人類社會之價值觀。 (11)高等人工智慧之設計應可與人類之尊嚴、權利、自由以及文化差異相互調和。 (12)對於人工智慧所使用之資料,其人類所有權人享有擷取、更改以及操作之權利。 (13)人工智慧之應用不該限制人類「客觀事實上」或「主觀知覺上」之自由。 (14)人工智慧之技術應盡力滿足越多人之利益。 (15)人工智慧之經濟利益,應為整體人類所合理共享。 (16)人類對於人工智慧之內在目標應享有最終設定權限。 (17)高等人工智慧所帶來或賦予之權力,對於人類社會之基本價值觀應絕對尊重。 (18)人工智慧所產生之自動化武器之軍備競賽應被禁止。 (19)政策上對於人工智慧外來之發展程度,不應預設立場。 (20)高等人工智慧系統之研發,由於對於人類歷史社會將造成重大影響,應予以絕對慎重考量。 (21)人工智慧之運用上,應衡量其潛在風險以及可以對於社會所帶來之利益。 (22)人工智慧可不斷自我循環改善,而可快速增進運作品質,其安全標準應予以嚴格設定。 (23)對於超人工智慧或強人工智慧,應僅為全體人類福祉而發展、設計,不應僅為符合特定國家、組織而設計。