歐洲專利局(The European Patent Office, EPO)於2019年6月27日發布《2023年戰略計畫》(Strategic Plan 2023, SP2023),協助歐盟應對網路化和全球化的世界挑戰。該戰略計畫之重點為實現專利局五大策略目標,分別為:員工參與(staff engagement)、資通訊現代化(modernisation)、品質(quality)、歐洲專利網路(European patent network)和永續性(sustainability)。
該五大策略目標分述如下:
本文為「經濟部產業技術司科技專案成果」
2022年5月澳門終審法院審結一宗涉及中國大陸家喻戶曉的涼茶品牌「王老吉」商標的爭議案,裁定兩個與「王老吉」有關商標的權利人(下稱失效商標之權利人)「未認真」使用商標,故宣告有關註冊失效。 查澳門有關商標失效之法規為《工業產權法律制度》第 231條第1項b款:「一、商標之註冊在下列情況下失效:b) 連續三年未認真使用商標」。而失效商標之權利人主張延展商標專用期限,應認為有認真使用商標,但最後終審法院認為延展商標專用期限不算是認真使用商標,而宣布其註冊商標失效。終審法院也引述歐盟法院判決輔助其判斷,指出關於商標認真使用的主要宗旨為以下: (1)認真使用:本案判決指出「如果說某個已註冊商標的權利人有“權利”對商標進行(排他性的)使用,那麼他同時也負有使用該商標的義務」,因此,商標認真使用指的是權利人必須確實將註冊商標使用在註冊的商品或服務上,達到商標向消費者(或稱公眾)指明某商品與服務來源的法律功能後,始能認定其為認真使用。(歐盟法院亦肯認之,認為認真使用指的是符合商標作為其註冊「產品或服務的來源識別」這一個主要功能)。 (2)未認真使用:本案判決特別指出,如果僅僅是基於阻擋他人使用該商標的「投機性目的」而註冊商標,卻未對公眾使用或僅為象徵性的使用(如非向公眾銷售的內部使用 又本文亦觀察到本案失效商標的權利人非中國知名涼茶「王老吉」所屬的廣州醫藥集團有限公司,若終審法院最後未做出商標失效的判決,將可能影響廣州醫藥集團有限公司在澳門市場拓展「王老吉」品牌。因此企業若要避免此類商標搶註風險,應事前在品牌拓展規劃時期同步做好「商標布局」規劃。否則,只能透過事後向商標專責機關「即時主張救濟」,如:以「商標未使用」主張申請廢止該商標。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
美國法院對於網路無障礙判決歧異加州聯邦中區地方法院於2014年6月在Jancik v. Redbox Automated Retail, LLC (No. SACV 13-1387-DOC, 2014 WL 1920751 (C.D. Cal. May 14, 2014))一案中,判決影片自動出租機公司Redbox勝訴。法院認為,雖然Redbox在其經營的線上影視串流服務中未提供隱藏字幕(closed captioning),導致聽障者無法藉由閱讀影片字幕來了解劇情,但「網站」非美國身心障礙者法(Americans with Disabilities Act,下稱ADA)第三章「民間事業體所營運之公共設施與服務」中所稱「公共設施」(public accommodation),即無障礙建置範疇不包含提供公眾商品與服務的「網站」,因此業者不須提供具可及性之商品,例如:附字幕影片。法院認為第三章並未就公共設施中商品特色和內容有所規範,因此業者無義務改善其他影片存貨規格,使其能為身障者所觀看;又Redbox線上影視串流服務僅有網路通路,依ADA文義解釋,網站亦非屬於公共設施,無提供無障礙建置之必要。 本案與第一巡迴上訴法院在NAD v. Netflix案見解大相逕庭,該案以「美國國家聽障人士協會」(National Association of the Deaf, NAD)為首之公協會,集體對美國知名線上串流影視節目網站Netflix提起訴訟,控告其線上影視節目未提供隱藏字幕,使得聽障人士無法觀看該影片內容,法院判決該平臺網站屬於「公共設施」,依ADA第302條規範,身心障礙者有權利享受公共設施之設備,不得因殘障而受差別對待。有關網站是否屬於ADA第三章所稱公共設施,而使得私法人有改善網頁無障礙技術義務,仍有待觀察。
基因資訊醫療運用與業務過失 英國發布人工智慧網路資安實務守則英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。