新加坡聖淘沙發展局(Sentosa Development Corporation, SDC)(以下簡稱聖淘沙發展局)於今(2018)年1月30日向新加坡高等法院(High court)起訴,主張一家名為Vela的醫療器材企業(包含Vela Operations Singapore, Vela Diagnostics等子公司,以下合稱Vela公司),在其一系列檢測HIV及茲卡病毒的醫材產品中使用″Sentosa″(下稱系爭商標)之行為,侵害了聖淘沙發展局的商標權,要求其停止使用。
聖淘沙發展局隸屬於新加坡貿易與工業部,為專責推動聖淘沙觀光活動的法人機構,系爭商標早在2005年於新加坡申請註冊,其保護範圍以服裝、飾品、書籍、玩具與飲品等涉及觀光之類別為主。截至2015年止,聖淘沙發展局更將保護範圍擴及馬來西亞、印尼及中國大陸。該局表示,系爭商標在過去長達45年的經營下,已成為新加坡著名商標。Vela公司將之作為其醫材品牌的行為,不僅會淡化,甚至減損系爭商標的識別性,造成消費者混淆誤認,將該檢測醫材與聖淘沙發展局產生不當連結,為蓄意藉機炒作。
事實上,Vela公司曾欲將″Sentosa″申請註冊商標,卻於2012年11月被駁回。這次Vela公司則提起商標無效之反訴回應聖淘沙發展局的訴訟,其認為系爭商標係指稱新加坡當地觀光渡假勝地的地理名詞,縱非地理名詞,在馬來語中亦屬稱頌和平寧靜之用語,無法代表特定之服務或產品,根本欠缺商標識別性要件,系爭商標應屬無效。
本案涉及新加坡司法實務有關地理名詞是否具備商標識別性之判斷標準,故其後續發展,值得追蹤觀察。
「本文同步刊登於TIPS網站(https://www.tips.org.tw)」
擁有專利但不生產商品,以購買專利與主張專利為主要商業模式的專利蟑螂,近來在美國引起眾多討論,2013年6月,美國白宮更正式發表聲明,不但要求行政機關打擊專利蟑螂,更建議立法機關作出相關修法。 高智發明(Intellectual Ventures,以下簡稱IV)自2001年創立以來,擁有約7萬個專利,其中4萬個屬於IV商業化專案,為主張專利之武器群。一向不承認自己屬於專利蟑螂的IV,2013年12月公開表列出3萬3千個用以主張專利侵權獲利之專利,包括無線技術、半導體技術、硬體、以及生物技術等高值專利;至於其他未公開的專利,IV則稱受限於第三方的保密義務無法公開。 IV宣稱此舉目的在於提供潛在專利被授權人或買受人一個購物清單;然而更為可能的,是面對同年11月底甫通過眾議院投票之創新法案帶來的壓力,所釋出之善意表示退讓。 前述公開清單目前在IV官網上公開提供下載與搜尋,對於企業或事務所,將來受到不知名公司控告專利侵權時,可以檢視這份清單,瞭解該案是否為IV所主導,但實際在訴訟策略上該如何運用學界與實務界尚未有明確的作法,值得繼續觀察。
美國證券交易委員會針對上市公司提出網路安全風險管理、治理及網路安全風險事件揭露規則美國證券交易委員會(United States Securities and Exchange Commission, SEC)於2022年3月9日提出關於上市公司網路安全風險管理、治理及相關事件揭露規則,希望加強上市公司的網路安全風險管理以及網路安全事件之揭露監管,其提案核心內容有二,第一係要求國內上市公司於確定發生重大網路安全事件後四個工作日內,揭露有關資訊,且揭露內容必須包含以下五大項,(1)事件何時發現、目前是否持續中、(2)事件性質與其範圍簡要說明、(3)是否有任何資料被洩漏、竄改或被不當使用、(4)該事件對於公司之營運影響、(5)公司是否已著手進行補救及處理。 該提案的第二個核心內容係定期報告公司的網路安全風險管理及治理資訊,例如公司是否具有網路安全風險評估計畫,其內容為何、公司是否有政策及程序監督第三方服務提供商之網路安全風險、當公司發生網路安全事件時,是否具備應變程序及網路攻擊復原計畫、網路安全相關風險對於營運結果及財務狀況將可能產生何種影響等等。 該提案的公眾諮詢期間為提案發布後60天,鑒於網路安全風險增加,美國證券交易委員會期望藉由此提案,更明確的告知投資者上市公司的網路安全風險管理及治理相關資訊、並且可以即時通知投資者重大網路安全事件,給予上市公司投資者及其他資本市場參與者更周延之保障。
世界衛生組織發布人工智慧於健康領域之監管考量因素文件,期能協助各國有效監管健康領域之人工智慧世界衛生組織(World Health Organization, WHO)於2023年10月19日發布「人工智慧於健康領域之監管考量因素」(Regulatory considerations on artificial intelligence for health)文件,旨在協助各國有效監管健康領域之人工智慧,發揮其潛力同時最大限度地降低風險。本文件以下列六個領域概述健康人工智慧之監管考量因素: (1)文件化與透明度(Documentation and transparency) 開發者應預先規範(pre-specifying)以及明確記錄人工智慧系統(以下簡稱AI系統)之預期醫療目的與開發過程,如AI系統所欲解決之問題,以及資料集之選擇與利用、參考標準、參數、指標、於各開發階段與原始計畫之偏離及更新等事項,並建議以基於風險之方法(Risk-based approach),根據重要性之比例決定文件化之程度、以及AI系統之開發與確效紀錄之保持。 (2)風險管理與AI系統開發生命週期方法(Risk management and AI systems development lifecycle approaches) 開發者應在AI系統生命之所有階段,考慮整體產品生命週期方法(total product lifecycle approach),包括上市前開發管理、上市後監督與變更管理。此外,須考慮採用風險管理方法(risk management approach)來解決與AI系統相關之風險,如網路安全威脅與漏洞(vulnerabilities)、擬合不足(underfitting)、演算法偏差等。 (3)預期用途、分析及臨床確效(Intended use, and analytical and clinical validation) 開發者應考慮提供AI系統預期用途之透明化紀錄,將用於建構AI系統之訓練資料集組成(training dataset composition)之詳細資訊(包括大小、設定與族群、輸入與輸出資料及人口組成等)提供給使用者。此外,可考慮透過一獨立資料集(independent dataset)之外部分析確效(external analytical validation),展示訓練與測試資料以外之效能,並考慮將風險作為臨床確效之分級要求。最後,於AI系統之上市後監督與市場監督階段,可考慮進行一段期間密集之部署後監督(post-deployment monitoring)。 (4)資料品質(Data quality) 開發者應確認可用資料(available data)之品質,是否已足以支援AI系統之開發,且開發者應對AI系統進行嚴格之預發布評估(pre-release evaluations),以確保其不會放大訓練資料、演算法或系統設計其他元素中之偏差與錯誤等問題,且利害關係人還應考慮減輕與健康照護資料有關之品質問題與風險,並繼續努力創建資料生態系統,以促進優質資料來源之共享。 (5)隱私與資料保護(Privacy and data protection) 開發者於AI系統之設計與部署過程中,應考慮隱私與資料保護問題,並留意不同法規之適用範圍及差異,且於開發過程之早期,開發者即應充分瞭解適用之資料保護法規與隱私法規,並應確保開發過程符合或超過相關法規要求。 (6)參與及協作(Engagement and collaboration) 開發者於制定人工智慧創新與部署路線圖之期間,需考慮開發可近用且具有充足資訊之平台,以於適合與適當情況下促進利害關係人間之參與及協作;為加速人工智慧領域實務作法之進化,透過參與及協作來簡化人工智慧監管之監督流程即有必要。