「專利蟑螂」( Patent Troll)由個人或是中小型組織/團體以購買專利的方式來獲得專利權,並藉由專利權排他性特徵,以訴訟方式來控告侵害其專利權的成功商品製造者。
「專利蟑螂」主要特徵有三;(1)主要係藉由專利取得的方式,向潛在或可能的專利侵權者收取費用;(2)此類NPE並不進行任何研發活動,其亦不就其所擁有的專利來從事商品化活動或發展新型技術;(30此類NPE投機性地等待商品製造者在投入不可回復之鉅額投資後,始對該商品製造者行使專利侵權主張。
然而,一般對於NPE對專利制度以及專利市場之影響,會以Patent Troll之行為模式作為觀察起點,例如,有論者認為專利蟑螂所從事購買與再行出售專利的行為,可以增進專利交易市場的效率化。同時,該行為不僅讓弱勢的專利創作者享有因其創作所產生的財務收益外,其亦發揮了同於仲介者(dealers)或是市場創造者(market-makers)功能的專利金融性市場 。亦有論者認為,專利蟑螂的行為已經帶來經濟上的危害(economic harm),因其慣於同時向不同公司索取適度的(moderate)專利授權費用。而為了避免陷入風險極高且耗費甚鉅的專利侵權訴訟,被索取專利授權費用之公司皆傾向給付專利蟑螂一定額度的專利授權金,以免除陷入不確定專利訴訟的泥皁。同時,專利蟑螂亦傾向選擇目標公司(target companies)最脆弱的時點,例如:新產品的發表、宣傳費用的投入等,再對其提出專利侵權訴訟,使其被迫必須遵循專利蟑螂的要求來擺脫可能陷入專利侵權訴訟的羈絆。
本文為「經濟部產業技術司科技專案成果」
美國消費者權益律師事務所Hagens Berman於2014年5月1日向美國加州北區聯邦地方法院(U.S. District Court for the Northern District of California)針對Google提出一項全國性反壟斷的集體訴訟,控告Google運用市場影響力,要求Android行動裝置製造商祕密簽署「行動應用程式散布協議」(Mobile Application Distribution Agreements,以下簡稱MADA),使競爭者難以進入Android手機,阻礙市場競爭,非法壟斷美國網路行動搜尋市場。 MADA原屬於機密文件,因Google與甲骨文(Oracle)的專利訴訟而曝光。該協議規定所有Android行動裝置中必須內建其應用程式,例如Google Search、YouTube、Google Maps、Gmail、Google Play與Google Talk等APP,並把Google Search設為預設搜尋引擎。原告律師Steve Berman表示,「很明顯地,Google能獨占行動搜索市場並非透過良好的搜尋引擎,而是藉由不正當的競爭手段操控市場實現的。並以此抬高Samsung Electronics和HTC手機裝置價格,要求應判賠償金給權益受損的消費者。行動裝置製造商倘若能選擇其他廠商的服務,將能改善行動搜索品質。」 Google則聲明:「任何人都可以在沒有Google的情況下使用Android系統,相對的,也可以在沒有Android系統的情況下使用Google,兩者是可獨立使用的服務。自從Android推出以來,智慧型手機市場競爭愈來愈激烈,讓消費者有更多平價的選擇。」雖然Google並未阻止製造商在Android手機上安裝第三方應用程式,但這份協議明顯已經抑制市場競爭。
美國國會議員提出「網路盾」草案美國民主黨議員Ed Markey於2019年10月22日提出2019年「網路盾」草案(Cyber Shield Act of 2019),將設立委員會以建立美國物聯網網路安全標準。 雖由參議員MarkWarner所提出之2019年物聯網網路安全促進法(Internet of Things Cybersecurity Improvement Act of 2019)已通過並施行,惟該法僅適用於聯邦政府機構之設備採購。而「網路盾」草案之目的則係設立委員會並建立美國物聯網設備認證標章。依據該草案第3條,於該法通過並經總統簽署後90天內,美國國務卿必須建立網路盾諮詢委員會,該委員會之任務為擬定並建立美國網路盾標章。 另依據該草案第4條,物聯網產品之自願性認證程序與認證標章,內容必須符合特定產業之網路安全與資料保護標準。該標章應為數位標章,並標示於產品之上,且可劃分數個等級,以表彰其符合產業所需求之網路安全與資料安全等級。而針對標章之內容,該法要求美國國務卿於法律通過90天內應建立諮詢相關利益團體之程序,以確保其充分符合產業需求與利益。美國國務卿與各聯邦主管機關亦須合作以持續維護網路安全與資料安全標章之運作,且確保獲得該標章之產品,其資安與資料保護品質均優於未受認證之產品。
德國資料保護會議通過「哈姆巴爾宣言」,針對人工智慧之運用提出七大個資保護要求德國聯邦及各邦獨立資料保護監督機關(unabhängige Datenschutzaufsichtsbehörden)共同於2019年4月3日,召開第97屆資料保護會議通過哈姆巴爾宣言(Hambacher Erklärung,以下簡稱「Hambacher宣言」)。該宣言指出人工智慧雖然為人類帶來福祉,但同時對法律秩序內自由及民主體制造成巨大的威脅,特別是人工智慧系統可以透過自主學習不斷蒐集、處理與利用大量個人資料,並且透過自動化的演算系統,干預個人的權利與自由。 諸如人工智慧系統被運用於判讀應徵者履歷,其篩選結果給予女性較不利的評價時,則暴露出人工智慧處理大量資料時所產生的性別歧視,且該歧視結果無法藉由修正資料予以去除,否則將無法呈現原始資料之真實性。由於保護人民基本權利屬於國家之重要任務,國家有義務使人工智慧的發展與應用,符合民主法治國之制度框架。Hambacher宣言認為透過人工智慧系統運用個人資料時,應符合歐盟一般資料保護規則(The General Data Protection Regulation,以下簡稱GDPR)第5條個人資料蒐集、處理與利用之原則,並基於該原則針對人工智慧提出以下七點個資保護之要求: (1)人工智慧不應使個人成為客體:依據德國基本法第1條第1項人性尊嚴之保障,資料主體得不受自動化利用後所做成,具有法律效果或類似重大不利影響之決策拘束。 (2)人工智慧應符合目的限制原則:透過人工智慧系統蒐集、處理與利用個人資料時,即使後續擴張利用亦應與原始目的具有一致性。 (3)人工智慧運用處理須透明、易於理解及具有可解釋性:人工智慧在蒐集、處理與利用個人資料時,其過程應保持透明且決策結果易於理解及可解釋,以利於追溯及識別決策流程與結果。 (4)人工智慧應避免產生歧視結果:人工智慧應避免蒐集資料不足或錯誤資料等原因,而產生具有歧視性之決策結果,控管者或處理者使用人工智慧前,應評估對人的權利或自由之風險並控管之。 (5)應遵循資料最少蒐集原則:人工智慧系統通常會蒐集大量資料,蒐集或處理個人資料應於必要範圍內為之,且不得逾越特定目的之必要範圍,並應檢查個人資料是否完全匿名化。 (6)人工智慧須設置問責機關進行監督:依據GDPR第12條、第32條及第35條規定,人工智慧系統內的控管者或處理者應識別風險、溝通責任及採取必要防範措施,以確保蒐集、處理與利用個人資料之安全性。 (7)人工智慧應採取適當技術與組織上的措施管理之:為了符合GDPR第24條及第25條規定,聯邦資料保護監督機關應確認,控管者或處理者採用適當的現有技術及組織措施予以保障個人資料。 綜上所述,Hambacher宣言內容旨在要求,人工智慧在蒐集、處理及利用個人資料時,除遵守歐盟一般資料保護規則之規範外,亦應遵守上述提出之七點原則,以避免其運用結果干預資料主體之基本權利。
美國加州「Asilomar人工智慧原則決議」美國加州議會於2018年9月7日通過Asilomar人工智慧原則決議(23 Asilomar AI Principles, ACR-215),此決議表達加州對於「23條Asilomar人工智慧原則」之支持,以作為產業或學界發展人工智慧、政府制定人工智慧政策之指標,並提供企業開發人工智慧系統時可遵循之原則。依此法案所建立之重要指標如下: (1)於研究原則上,人工智慧之研究應以建立對於人類有利之人工智慧為目標。 (2)於研究資助上,人工智慧之研究資助應著重幾個方向,如:使人工智慧更加健全且可抵抗外界駭客干擾、使人工智慧促進人類福祉同時保留人類價值以及勞動意義、使法律制度可以順應人工智慧之發展。 (3)於科學政策之連結上,人工智慧研究者與政策擬定者間應有具有建設性且健全之資訊交流。 (4)於研究文化上,人工智慧研究者應保持合作、互信、透明之研究文化。 (5)於安全性上,人工智慧研究團隊應避免為了研究競爭而忽略人工智慧應具備之安全性。 (6)人工智慧系統應該於服務期間內皆具備安全性及可檢視性。 (7)人工智慧系統之編寫,應可使外界於其造成社會損失時檢視其出錯原因。 (8)人工智慧系統如應用於司法判斷上,應提供可供專門人員檢視之合理推論過程。 (9)人工智慧所產生之責任,應由設計者以及建造者負擔。 (10)高等人工智慧內在價值觀之設計上,應符合人類社會之價值觀。 (11)高等人工智慧之設計應可與人類之尊嚴、權利、自由以及文化差異相互調和。 (12)對於人工智慧所使用之資料,其人類所有權人享有擷取、更改以及操作之權利。 (13)人工智慧之應用不該限制人類「客觀事實上」或「主觀知覺上」之自由。 (14)人工智慧之技術應盡力滿足越多人之利益。 (15)人工智慧之經濟利益,應為整體人類所合理共享。 (16)人類對於人工智慧之內在目標應享有最終設定權限。 (17)高等人工智慧所帶來或賦予之權力,對於人類社會之基本價值觀應絕對尊重。 (18)人工智慧所產生之自動化武器之軍備競賽應被禁止。 (19)政策上對於人工智慧外來之發展程度,不應預設立場。 (20)高等人工智慧系統之研發,由於對於人類歷史社會將造成重大影響,應予以絕對慎重考量。 (21)人工智慧之運用上,應衡量其潛在風險以及可以對於社會所帶來之利益。 (22)人工智慧可不斷自我循環改善,而可快速增進運作品質,其安全標準應予以嚴格設定。 (23)對於超人工智慧或強人工智慧,應僅為全體人類福祉而發展、設計,不應僅為符合特定國家、組織而設計。