歐盟法院(ECJ- the Court of Justice of the European Communities)於11月28日針對Intel v CPM一案宣告,對於著名商標侵害的認定參考英國上訴法院(the Court of Appeal-England and Wales)的初審裁定「著名商標持有人得中止近似商標使用於完全非類似的產品或服務上,只要能舉證近似商標之使用造成對著名商標持有人的侵害並有實質的經濟影響」。
本案原告為Intel Corporation Inc. 註冊「Intel」為英國商標,指定使用於第9類電子商品、第16類文具商品、第38類通訊服務、及第42類電腦軟硬體設計服務,其中並在電腦微處理器及軟體等電子產品上更為全球知名的商標;CPM united Kingdom Ltd. 註冊「INTELMARK」為英國商標,指定使用於第35類的行銷及遠距行銷等廣告服務,Intel主張CPM使用INTELMARK為商標將有致侵害及淡化Intel商標的使用,並產生不正利益。惟英國商標局(Trade Mark Registry Hearing Officer)駁回Intel之申請案,且英國上訴法院初審判決維持原判,並向歐盟法院提出著名商標認定標準。
歐盟法院此次對著名商標的認定,將使著名商標持有人以後如果要保障其商標名稱不被稀釋,必須提出下列證明:1. 前商標(即著名商標)與後商標(近似商標)間必須有一定的關聯性;2. 後商標會使一般消費者產生對前商標的聯想;3.前商標與後商標所註冊的商品間並不一定要類似;4.後商標的使用造成不正利益或侵害前商標持有人的商譽。
本案將待英國上訴法院判決宣判後確定。
美國疾病控制和預防中心(Centers for Disease Control and Prevention, CDC)(下稱中心)於2021年3月5日公布長照機構(下稱機構)居民施打新型冠狀病毒(COVID-19)(下稱病毒)疫苗之重要措施。由於機構內人口密集、居民本身已患有疾病,其所面臨死亡的風險比一般人高,因此應重視此類族群的疫苗接種情形。 中心期望透過施打疫苗來降低機構居民可能死於病毒之風險。目前此疫苗已經過多次的臨床試驗,參與臨床試驗之族群也包含65歲以上之長者,多方面確保符合各族群的施打疫苗之安全性,而目前試驗過程中也並未出現嚴重的安全問題,即使出現副作用也多是較輕微症狀,例如施打部位之疼痛、發燒、發冷等症狀,中心認為施打的好處優於副作用,因此中心與美國疫苗接種諮詢委員會(Advisory Committee on Immunization Practices,ACIP)同意對機構居民進行疫苗施打。 由於機構之居住者多為無法獨立自理生活之失能者,需透過機構來提供失能者醫療服務,而居民大多本身就有一些疾病,受感染病毒而造成死亡的機率較大,雖然法律並沒有特別要求應徵得當事人同意才能施打疫苗,但中心認為徵得居民同意,或徵得代表居民做出醫療措施決定之人的同意施打疫苗會比較謹慎,並且在施打前必須說明與解釋疫苗施打的風險,以及依照作業程序將施打紀錄製作於文件中。 中心也正在與多家藥局合作,協助機構對於施打疫苗之居民與家屬進行風險告知與解釋說明施打疫苗之相關知識,除了取得居民之同意並採取紀錄程序外,每位接受施打疫苗之居民或居民之照顧者將會取得疫苗接種紀錄卡,因為某些疫苗需要注射兩次以上才能達到最佳保護,紀錄卡能顯示完整的疫苗施打過程。除此之外,措施規定居民在施打疫苗後必須遵守幾點注意事項: 施打疫苗後必須配戴口罩。 與他人保持至約183公分之距離。 避開人群和通風不良的地方。 勤洗手與消毒。 遵循中心發布之旅行指南。 遵循隔離指導。 有此可知中心期望能透過施打疫苗的方式來降低居民因病毒而受感染死亡之風險,也透過徵得居民書面同意文件的方式,以確保中心與居民之醫療程序保障。
線上遊戲「虛擬財產」法律性質與產業發展趨勢之研究 世界衛生組織發布人工智慧於健康領域之監管考量因素文件,期能協助各國有效監管健康領域之人工智慧世界衛生組織(World Health Organization, WHO)於2023年10月19日發布「人工智慧於健康領域之監管考量因素」(Regulatory considerations on artificial intelligence for health)文件,旨在協助各國有效監管健康領域之人工智慧,發揮其潛力同時最大限度地降低風險。本文件以下列六個領域概述健康人工智慧之監管考量因素: (1)文件化與透明度(Documentation and transparency) 開發者應預先規範(pre-specifying)以及明確記錄人工智慧系統(以下簡稱AI系統)之預期醫療目的與開發過程,如AI系統所欲解決之問題,以及資料集之選擇與利用、參考標準、參數、指標、於各開發階段與原始計畫之偏離及更新等事項,並建議以基於風險之方法(Risk-based approach),根據重要性之比例決定文件化之程度、以及AI系統之開發與確效紀錄之保持。 (2)風險管理與AI系統開發生命週期方法(Risk management and AI systems development lifecycle approaches) 開發者應在AI系統生命之所有階段,考慮整體產品生命週期方法(total product lifecycle approach),包括上市前開發管理、上市後監督與變更管理。此外,須考慮採用風險管理方法(risk management approach)來解決與AI系統相關之風險,如網路安全威脅與漏洞(vulnerabilities)、擬合不足(underfitting)、演算法偏差等。 (3)預期用途、分析及臨床確效(Intended use, and analytical and clinical validation) 開發者應考慮提供AI系統預期用途之透明化紀錄,將用於建構AI系統之訓練資料集組成(training dataset composition)之詳細資訊(包括大小、設定與族群、輸入與輸出資料及人口組成等)提供給使用者。此外,可考慮透過一獨立資料集(independent dataset)之外部分析確效(external analytical validation),展示訓練與測試資料以外之效能,並考慮將風險作為臨床確效之分級要求。最後,於AI系統之上市後監督與市場監督階段,可考慮進行一段期間密集之部署後監督(post-deployment monitoring)。 (4)資料品質(Data quality) 開發者應確認可用資料(available data)之品質,是否已足以支援AI系統之開發,且開發者應對AI系統進行嚴格之預發布評估(pre-release evaluations),以確保其不會放大訓練資料、演算法或系統設計其他元素中之偏差與錯誤等問題,且利害關係人還應考慮減輕與健康照護資料有關之品質問題與風險,並繼續努力創建資料生態系統,以促進優質資料來源之共享。 (5)隱私與資料保護(Privacy and data protection) 開發者於AI系統之設計與部署過程中,應考慮隱私與資料保護問題,並留意不同法規之適用範圍及差異,且於開發過程之早期,開發者即應充分瞭解適用之資料保護法規與隱私法規,並應確保開發過程符合或超過相關法規要求。 (6)參與及協作(Engagement and collaboration) 開發者於制定人工智慧創新與部署路線圖之期間,需考慮開發可近用且具有充足資訊之平台,以於適合與適當情況下促進利害關係人間之參與及協作;為加速人工智慧領域實務作法之進化,透過參與及協作來簡化人工智慧監管之監督流程即有必要。