美國專利商標局(USPTO)於2021年1月13日發布「中國大陸商標與專利:非市場因素對申請趨勢與智財體系之影響」(Trademarks and Patents in China: The Impact of Non-Market Factors on Filing Trends and IP Systems)研究報告,指出中國大陸近年來急遽增加的專利與商標申請案件數,從申請海外專利保護比率低、專利發明商業化比率低以及惡意(bad-faith)或詐欺性(fraudulent)商標申請案件比率高等現象觀察,申請案件數的爆量很有可能源自政府補貼或其他非市場因素的影響。
USPTO指出,中國大陸在2019年的專利與商標申請案件數均達到歷史新高,包含商標案件數達780萬件、發明專利申請案件數達150萬件,已經接近全球申請案件數的一半,也引起國際的關注。有別於其他國家因創新活動熱絡所帶動的專利及商標申請案件量增長,中國大陸在2020年世界智財組織(WIPO)所統計的智財授權比率僅排名第44,顯示中國大陸在智財商業化比率極低,其專利與商標申請案件數的暴增可能源於其他非市場因素。
USPTO指出,政府補貼可能是刺激商標與專利申請案件數增長的最大原因,由於中國大陸中央與地方政府持續推動商標補貼措施,補貼金額通常高於商標註冊費用,進而引導人民大量註冊非為商業使用之商標,在專利申請上也有類似的情況,中國大陸政府推動超過195個專利補貼措施,創造了以申請專利賺取補貼的誘因。這些非市場因素的商標及專利申請案件,除了可能誤導對於中國大陸創新能力的評估外,也正在破壞保護真正創新活動的能量。
本文為「經濟部產業技術司科技專案成果」
美國司法部(Department of Justice)指控微軟、Yahoo和Google三家入口及搜尋網站業者,於1997到2007年間,違反禁止網路賭博之規定,接受非法賭博業者委託刊登線上廣告。 美國司法部認為此三家公司除違反聯邦線上博奕法(Federal Wire Wager Act)禁止賭博之規定以外,另違反聯邦博奕課稅條例,以及各州與地方有關禁止賭博之規定。為此,美國國稅局(Internal Revenue Service)和聯邦調查局亦介入此一案件之調查,並與司法部共同認為微軟、Yahoo和Google等著名入口網站對於社會具有重大影響力,刊登線上賭博廣告之行為不僅違反法規事實明確,對於間接促進相關線上賭博產業之興盛與賭博行為之猖獗亦應負社會責任。 在法院進行實質審理前,三家公司已於2007年12月與司法部達成和解協議,同意支付3150萬美元之罰金(折合台幣約10億元),並配合線上公益及宣導賭博違法等義務。
日本特許法有關職務發明報酬規定之新近發展趨勢企業或機構對於所屬研發人員所為的 職務發明 , 應該給予多少的報償才算「合理」,近年來成為日本專利制度的爭議話題之一,其中 Olympus Optical Co., Ltd. v. Shumpei Tanaka 、 Yonezawa v. Hitachi Co. Ltd. 、 Nakamura v. Nichia Chemical Co Ltd 幾件訴訟案件更受到高度矚目,引發各界對於日本特許法(即專利法)中第 35 條第 3 、 4 項相關規定之檢討與議論,進而促使日本國會於 2004 年 5 月 28 日 通過特許法修正案,並自 2005 年 4 月 1 日 正式生效。 修正後之日本特許法有關受雇人發明制度部分,修正了第 35 條第 3 項及第 4 項並新增第 5 項。第 35 條第 3 項規定,受雇人依據契約、工作規則或其他約定,同意授予雇用人關於受雇人所為發明之專利申請權、專利權或設定專用實施權時,受雇人對於雇用人有收取合理報酬之權。第 35 條第 4 項規定,依據前項所定之契約、工作規則與其他約定,訂有報酬之約定時,在該報酬之決定標準係經由受雇人與雇用人協議為之,該報酬標準係經公開,且受雇人對於計算報酬金額所表達之意見,亦被充分聽取的情形下,依據該約定所為之報酬金給付應被認為是合理的。又同條第 5 項之規定,若企業內部之契約、工作規則與其他約定,並未規定報酬金額,或雖有規定,但該規定之報酬金額被認為是不合理的,則第 3 項所規定之合理報酬金額,應權衡雇用人基於該發明所獲得之利益、所承受之負擔及對該發明所做之貢獻,與受雇人在相關發明中所獲得之利益及其他相關因素加以認定之。 上述修正規定最大的特色在於 :(一)尊重自主協議 ; (二)報酬計算要件更加具體化 ; (三)鼓勵裁判外紛爭解決手段 。新修正之受雇人制度會帶來什麼樣的影響,目前各界仍在觀察;不過可確定的是,相較於舊法,新法至少在計算合理報酬上,要求雇用人須踐行更多的程序及其他要件,而這程序或要件規定將可減少法官在舊法時計算合理報酬金額的沈重負擔,與高度不確定所帶來的風險,並且亦可減少受雇人發明訴訟的總數量。 以日本電子大廠 Toshiba 新近在 7 月底與其離職員工 Fujio Masuoka 就閃光記憶晶片技術( flash memory chip technology )所達成之職務發明報酬和解協議為例, Toshiba 在 7 月 27 日 發布的新聞稿中,即特別感謝東京地方法院對公司有關員工職務發明之報酬政策及看法的尊重。
加拿大配合數位隱私法之推行,公告安全防護措施違反之規則草案加拿大數位隱私法(Digital Privacy Act)於2015年6月18日獲得皇室御准,該法目的係為修訂規範私部門運用個人資料的聯邦個人資料保護及電子文件法(Personal Information Protection and Electronic Documents Act, PIPEDA)。該法有多個章節於公告時便即刻施行,但仍有部分章節需待日後其他行政機關公告配套之法規後始能正式施行,例如該法的重點章節之一:「安全防護措施之違反」(Breaches of Security Safeguards)。 歷經約莫兩年,加拿大創新、科學及經濟發展部(Innovation, Science and Economic Development Canada)於2017年9月2日公告安全防護措施違反之規則草案(Breaches of Security Safeguards Regulations),以及規則衝擊分析聲明(Regulatory Impact Analysis Statement)。草案自公告時起開放30天供相關利益關係人發表意見,未來將和數位隱私法的「安全防護措施之違反」同時生效施行。 草案制定目的在於確保加拿大本國人若遇有資料外洩且具有損害風險時,可收到精確的相關資訊。私部門對本人的通知應包含使本人可理解外洩的衝擊和影響的詳細資訊。草案確保加拿大個人資料保護公署(Office of the Privacy Commissioner of Canada)之專員亦能獲得有關資料外洩的確實且對等資訊,並可監督、確認私部門遵守法規並執行。草案詳載私部門於通報個人資料保護公署時應提交的資訊,以及通知本人時應提供的資訊,且不限制私部門額外提供其他資訊。遇有資料外洩情事而故意不即時通報個人資料保護公署或通知本人者,最高將可處十萬美金罰鍰。
世界衛生組織發布人工智慧於健康領域之監管考量因素文件,期能協助各國有效監管健康領域之人工智慧世界衛生組織(World Health Organization, WHO)於2023年10月19日發布「人工智慧於健康領域之監管考量因素」(Regulatory considerations on artificial intelligence for health)文件,旨在協助各國有效監管健康領域之人工智慧,發揮其潛力同時最大限度地降低風險。本文件以下列六個領域概述健康人工智慧之監管考量因素: (1)文件化與透明度(Documentation and transparency) 開發者應預先規範(pre-specifying)以及明確記錄人工智慧系統(以下簡稱AI系統)之預期醫療目的與開發過程,如AI系統所欲解決之問題,以及資料集之選擇與利用、參考標準、參數、指標、於各開發階段與原始計畫之偏離及更新等事項,並建議以基於風險之方法(Risk-based approach),根據重要性之比例決定文件化之程度、以及AI系統之開發與確效紀錄之保持。 (2)風險管理與AI系統開發生命週期方法(Risk management and AI systems development lifecycle approaches) 開發者應在AI系統生命之所有階段,考慮整體產品生命週期方法(total product lifecycle approach),包括上市前開發管理、上市後監督與變更管理。此外,須考慮採用風險管理方法(risk management approach)來解決與AI系統相關之風險,如網路安全威脅與漏洞(vulnerabilities)、擬合不足(underfitting)、演算法偏差等。 (3)預期用途、分析及臨床確效(Intended use, and analytical and clinical validation) 開發者應考慮提供AI系統預期用途之透明化紀錄,將用於建構AI系統之訓練資料集組成(training dataset composition)之詳細資訊(包括大小、設定與族群、輸入與輸出資料及人口組成等)提供給使用者。此外,可考慮透過一獨立資料集(independent dataset)之外部分析確效(external analytical validation),展示訓練與測試資料以外之效能,並考慮將風險作為臨床確效之分級要求。最後,於AI系統之上市後監督與市場監督階段,可考慮進行一段期間密集之部署後監督(post-deployment monitoring)。 (4)資料品質(Data quality) 開發者應確認可用資料(available data)之品質,是否已足以支援AI系統之開發,且開發者應對AI系統進行嚴格之預發布評估(pre-release evaluations),以確保其不會放大訓練資料、演算法或系統設計其他元素中之偏差與錯誤等問題,且利害關係人還應考慮減輕與健康照護資料有關之品質問題與風險,並繼續努力創建資料生態系統,以促進優質資料來源之共享。 (5)隱私與資料保護(Privacy and data protection) 開發者於AI系統之設計與部署過程中,應考慮隱私與資料保護問題,並留意不同法規之適用範圍及差異,且於開發過程之早期,開發者即應充分瞭解適用之資料保護法規與隱私法規,並應確保開發過程符合或超過相關法規要求。 (6)參與及協作(Engagement and collaboration) 開發者於制定人工智慧創新與部署路線圖之期間,需考慮開發可近用且具有充足資訊之平台,以於適合與適當情況下促進利害關係人間之參與及協作;為加速人工智慧領域實務作法之進化,透過參與及協作來簡化人工智慧監管之監督流程即有必要。