中國大陸於最高人民法院內新設立知識產權法庭

  近期美國與中國大陸雙方針對貿易問題展開激烈攻防,起因為美國冀望透過「貿易戰」扭轉中美龐大的貿易逆差,而其中一個主要爭議點即為中國大陸日趨嚴重之侵權仿冒等問題。

  中國大陸於第十三屆全國人大常委會表決通過最高人民法院提請審議的《關於專利等案件訴訟程式若干問題的決定》,批准最高人民法院設立知識產權法庭,主要審理專利等專業技術性較強的知識產權民事及行政上訴案件,以達成知識產權案件審理專門、集中及人員專業化之目的,提供更為專業之司法服務及保障。由最高人民法院知識產權法庭統一審理發明和實用新型專利為主之上訴案件,有利於對中外企業知識產權之保護,實現知識產權效力判斷與侵權判斷兩大訴訟程式和裁判標準的對接,以利解決機制上之裁判尺度不一問題,提高知識產權審判品質效率,提升司法公信力。

  值得注意的是,最高人民法院知識產權法庭審理之案件,僅以不服知識產權一審判決、裁定中發明和實用新型專利等案件,其他上訴案件,仍由智慧財產權法院所在地的高級人民法院審理。中國大陸最高人民法院院長周強表示,知識產權法庭之設立,宣示平等保護中外市場主體知識產權,該知識產權法庭並不會處理與不正當競爭、商標或營業秘密有關之案件。

相關連結
你可能會想參加
※ 中國大陸於最高人民法院內新設立知識產權法庭, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8167&no=55&tp=1 (最後瀏覽日:2026/01/13)
引註此篇文章
你可能還會想看
歐洲民間成立一聯盟,倡議資料主權之重要性

  在今(2021)年1月21日,歐洲數個科技公司、非營利組織與研究機構等民間單位共同發起「現今資料主權」聯盟(Data Sovereignty Now,DSN),宣布將向歐洲各級決策者施加壓力,以確保資料(data)之控制權掌握在生成資料的個人和組織手中。該聯盟認為歐盟執委會應採取決定性之措施,對於在歐洲所生成之資料,應以資料主權原則為基礎,以確保生成資料之個人和組織對其有控制權,以利數位經濟。   而在2020年12月初,澳洲政府首開全球先例提出一新法案,要求Google與Facebook等平台應向澳洲在地媒體支付新聞內容費用,要求雙方進行協商,商討在其平台上顯示之新聞內容所應支付之費用,倘無法達成協議,則由政府之仲裁員決定應支付之金額。此法案引發Google與Facebook高度反彈,不惜以不繼續在澳洲提供服務或停止連結(link)當地媒體之新聞報導作為反擊,要求澳洲政府撤回或修改該法案;然DSN聯盟則認為,Google與Facebook利用其市場主導地位來向澳洲政府施加壓力,正是濫用其資料壟斷權(data monopoly)與壟斷地位之典型例子,為防止科技巨擎將來繼續以此方式勒索政府之唯一方法,即是恢復使用者與平台間之「數位利益平衡」。而Google似有讓步之跡象,根據路透社報導,Google分別已與兩家當地媒體達成協議,將各支付每年3000萬澳幣之費用。該法案是否會如期通過,進而改變或影響此類大型平台與各國政府間資料主權之角力關係,值得持續關注。

歐盟提出現行個資保護指令規範之修正草案

歐盟提出現行個資保護指令規範之修正草案 科技法律研究所 2013年10月07日 壹、事件摘要   歐盟於1995年所制定之「個人資料保護指令」(Data Protection Directive,95/46/EC,下稱個資保護指令),其基本原則確保了歐盟會員國個人資料基本權利之保障,後續也成為國際相關立法時之參考依據。但由於個資保護指令制定時為框架式立法模式,歐盟各會員國仍須將相關規定內國法化,導致各會員國間對於個人資料保護標準產生差距。 貳、重點說明 一、立法緣起   歐盟現行之「個資保護指令」是第一部解決關於個人資料處理與自由流通保護之指令,主要在於提供歐盟境內關於個人資料及隱私權保護之規定。但由於該指令使各會員國之規範不具統一性,且制定之時科技尚屬發展階段。為解決科技發展與各國形成之保護差距,歐盟執委會(European Commission)在2012年1 月25 日,向歐洲理事會(European Commission)及歐洲議會(European Parliament)正式提出「一般個人資料保護規則」(General Data Protection Regulation)草案共91 條。預計於2015年施行,並取代現行個資保護指令,全面並一致性適用於各會員國。 二、關鍵改變   本次一般個人資料保護規則草案相較於現行個資保護指令,主要有資料當事人權利行使新增與強化、當事人同意要件標準提高、適用主體擴大、申訴權力強化、資料管理人資料保護責任之加重、損害賠償與相關罰則之規定等,並將各項規定更加明確化,以解決長期以來歐盟會員國間因保護水準不一所形成之衝突現象。 參、事件評析   一般個人資料規則草案提出後,歐盟與英國分別針對新規則草案進行評估。歐盟執委會認為,新規則可協助歐盟境內解決長期以來因個資法保護水準不一所形成之衝突,進而為當地企業帶來約23億歐元之效益;但英國當地卻持反面見解,認為新法將使企業提高所需擔負之行政成本,且高規格之法遵要求也使資料管理人陷入難以遵守之情況,進而影響歐盟之競爭力。國際上激烈的討論聲浪與分歧之見解,也使得該規則草案自提出至今已一年多的時間,仍未正式拍板定案。   歐盟於1995年制定之個資保護指令,自1998年生效之後,不僅在各會員國進行個資保護時扮演關鍵性角色,更為國際上個人資料保護或隱私保護之參考依據,其動向更為各國所專注與留意。而隨著時代轉變與科技演進,歐盟期許未來不只是在歐盟境內,更可將個人資料或隱私保護相關資訊與要求,擴及歐盟以外之國家,因而於2012年提出新規則草案,而後續相關發展,更值得我們持續留意跟進。

Google被遺忘權近期歐洲法院判決趨勢

  德國聯邦最高法院(Bundesgerichtshof, BGH)於今(2020)年7月「VI ZR 405/18」」案中拒絕當事人請求Google刪除有關其健康個資之主張,為2018年歐盟通過一般資料保護規則(General Data Protection Regulation, GDPR)後,德國聯邦最高法院第一件與被遺忘權相關之判決。本案當事人曾為德國一慈善團體之負責人,該團體於2011年陷入財務危機,而當時有報導指稱當事人作為團體負責人,竟稱病不回應媒體訪談。當事人認為上述報導資料有損其名譽,請求Google刪除與其健康個資相關之搜尋結果。德國聯邦最高法院於判決中強調,網路搜尋結果是否須被移除,應衡量相關之基本權利,個案分別認定。本案中大眾知的權利(right to information)優於當事人被遺忘權,故駁回原告之請求,判決Google勝訴。   被遺忘權首見於2014年歐盟判決(Google Spain v. AEPD and Mario Costeja Conzalez),賦予人民要求搜尋引擎移除對自身造成負面影響資訊之權利。GDPR進一步於第17條明文化此一權利之內涵,於個資依原本蒐集之目的已不具必要性、當事人撤回同意、當事人反對個資自動化處理、當事人個資遭不法侵害、依照法律規定應刪除個資及青少年與兒童個資等六種情形,當事人得請求資料控制者刪除個資。   法國近期亦有被遺忘權相關法院判決。法國最高行政法院(Conseil d’État)於今(2020)年3月撤銷法國國家資訊自由委員會(Commission nationale de l’informatique et des libertés, CNIL)於2016年3月對Google作出十萬歐元之裁罰,因其僅刪除存在於法國網域內之當事人個資,而未及於全球網域。法國最高行政法院於本判決重申2019年歐盟法院(European Court of Justice)於Google v. CNIL之立場,認定Google履行被遺忘權之網域範圍僅適用於歐盟地區,而不及於全球,撤銷CNIL於2016年對Google作出之裁罰。

人權組織向法國最高行政法院提交申訴,要求政府停止使用歧視性演算法

.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 國際特赦組織(Amnesty International)與法國數位隱私權倡議團體La Quadrature du Net(LQDN)等組織於2024年10月15日向法國最高行政法院提交申訴,要求停止法國國家家庭津貼基金機構(Caisse nationale des allocations familiales,CNAF)所使用的歧視性風險評分演算法系統。 CNAF自2010年起即慣於使用此系統識別可能進行福利金詐欺的對象,該系統演算法對獲取家庭與住房補助的對象進行0至1之間的風險評分,分數越接近1即越可能被列入清單並受調查,政府當局並宣稱此系統將有助於提升辨識詐欺與錯誤的效率。 LQDN取得該系統的原始碼,並揭露其帶有歧視性質。該等組織說明,CNAF所使用的評分演算法自始即對社會邊緣群體如身心障礙者、單親家長,與低收入、失業、居住於弱勢地區等貧困者表現出懷疑態度,且可能蒐集與系統原先目的不相稱的資訊量,這樣的方向直接違背了人權標準,侵犯平等、非歧視與隱私等權利。 依據歐盟《人工智慧法》(Artificial Intelligence Act,下稱AIA),有兩部分規定: 1. 用於公機關評估自然人是否有資格獲得基本社會福利或服務,以及是否授予、減少、撤銷或收回此類服務的人工智慧系統;以及用於評估自然人信用或建立信用評分的人工智慧系統,應被視為高風險系統。 2. 由公機關或私人對自然人進行社會評分之人工智慧系統可能導致歧視性結果並排除特定群體,從此類人工智慧總結的社會分數可能導致自然人或其群體遭受不當連結或程度不相稱的不利待遇。因此應禁止涉及此類不可接受的評分方式,並可能導致不當結果的人工智慧系統。 然而,AIA並未針對「社會評分系統」明確定義其內涵、組成,因此人權組織同時呼籲,歐盟立法者應針對相關禁令提供具體解釋,惟無論CNAF所使用的系統為何種類型,因其所具有的歧視性,公機關皆應立即停止使用並審視其具有偏見的實務做法。

TOP