英國最高法院於2020年8月26日,駁回華為與中興通訊在Unwired Planet v Huawei和Conversant v Huawei and ZTE案的上訴決定。美國公司Unwired Planet和Conversant控訴華為及其他智慧手機製造商,侵害其所擁有的英國專利技術,其中包含由國際標準制定組織(Standard Setting Organization, SSO)與歐洲電信標準協會(European Telecommunications Standards Institute, ETSI)所制定的2G、3G及4G無線通訊標準必要專利(Standards Essential Patents, SEP)。依據ETSI智慧財產權政策(Intellectual Property Policy, IPR),SEP權利人必須以公平、合理和無歧視條款(Fair, Reasonable and Non-discriminatory, FRAND)向實施者進行授權。英國最高法院根據ETSI政策所制定的契約內容,應賦予英國法院管轄權,更能決定多國專利組合的全球授權條款。若華為拒絕支付法院認定的FRAND全球授權金,法院將會頒布禁制令,禁止華為在英國銷售侵權產品。
首先,關於本案管轄權爭議,最高法院認為,在沒有雙方協議管轄的情況下,英國法院具有本案管轄權,得發給禁制令並確定專利授權費率等授權條件。原則上,專利有效性與侵權爭議,應由授予專利的該國法院決定,然而本案依據ETSI智慧財產權政策所訂定的契約,已約定由英國法院管轄,並得決定包括外國專利在內的專利組合授權條款。
另外,本案關於FRAND無歧視爭議,係源於華為主張Unwired Planet先前給予Samsung較低的授權費率,對華為構成歧視性授權。最高法院認為,Unwired Planet未違反FRAND無歧視承諾,蓋依據ETSI智慧財產權政策,FRAND無歧視並非硬性(hard-edged)要求前後授權費率完全一致,而是指所有市場參與者,基於專利組合的市場價值,都能取得專利授權使用的合理權利金價格表,絕非強制SEP所有人對類似條件的被授權人提供相同的授權條件。本案法院也認同,基於經濟或商業實務上的習慣,調整個別授權金,並未違反ETSI智慧財產權政策的無歧視要求。
本文為「經濟部產業技術司科技專案成果」
美國專利商標局下之專利審查政策處(Office of Patent Examination Policy)於2016年11月2日發布了一份備忘錄(memorandum),就近來聯邦巡迴上訴法院所做之可專利性客體(subject matters eligibility, SME)相關判決為整理並對專利審查者提出若干指引。 該備忘錄表示,美國可專利性客體審查手冊(SME guideline,下稱SME審查手冊)自今年5月修改後,聯邦巡迴上訴法院陸續做出相關判決,因此除了先就相關事項為一整理,之後亦會依據這些判決所確立之一些原則以及專利之利益相關人(patent stake holders)之回饋意見對SME審查手冊進行修改。 此備忘錄主要討論的判決為McRO案以及BASCOM案,在此兩判決中,聯邦巡迴上訴法院均認為下級審法院錯誤地依Alice規則認定專利無效。在McRO案,法院認為有關利用電腦所執行之自動人臉語音同步之動畫系統(automatic lip synchronization and facial expression animation )之方法請求項係屬有效。審查者在適用Alice規則時應依據SME手冊的2階段步驟對請求項進行整體考量,且不應忽略請求項中許多特定要件,過度簡化請求項為抽象概念。其並指出「電腦相關技術之改良」,不僅止於電腦運作或是電腦網路本身,若是一些規則(rules)(主要為一些數理關係式(mathematical relationship))可以增進改善電腦之效能者亦屬之。 備忘錄另藉著BASCOM案提醒審查者,在決定請求項是否無效時,應考慮所有的請求項之元件(elements),以判斷該請求項是否已經具備實質超越(substantial more)一般常規、通用之元件(conventional elements)之要素。同時備忘錄並提醒審查者不應依據一些法院決定不做為先例之判決(nonprecedential decisions)之意見。
FCC第二號命令對我國必要轉播條款的啟示 何謂「阿西洛馬人工智慧原則」?所謂「阿西洛馬人工智慧原則」(Asilomar AI Principles),是指在2017年1月5日至8日,於美國加州阿西洛馬(Asilomar)市所舉行的「Beneficial AI」會議中,由與會的2000餘位業界人士,包括844名學者專家所共同簽署的人工智慧發展原則,以幫助人類運用人工智慧為人類服務時,能確保人類的利益。 該原則之內容共分為「研究議題」( Research Issues)、「倫理與價值觀」( Ethics and Values),及「更長期問題」( Longer-term Issues)等三大類。 其條文共有23條,內容包括人工智慧的研究目標是創造有益的智慧、保證研究經費有益地用於研究人工智慧、在人工智慧研究者和政策制定者間應有具建設性並健康的交流、人工智慧系統在其整個運轉周期內應為安全可靠、進階人工智慧系統的設計者及建造者在道德層面上是其使用、誤用以及動作的利害關係人,並應有責任及機會去影響其結果、人工智慧系統應被設計和操作為和人類尊嚴、權利、自由和文化多樣性的理想具一致性、由控制高度進階人工智慧系統所取得的權力應尊重及增進健康社會所需有的社會及公民秩序,而非顛覆之,以及超級智慧應僅能被發展於服務廣泛認同的倫理理想,以及全人類,而非單一國家或組織的利益等等。