2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。 問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。
美國管理不實施專利主體立法進程與趨勢美國管理不實施專利主體立法進程與趨勢 科技法律研究所 法律研究員 劉憶成 2015年07月30日 壹、不實施專利主體概述 「不實施專利主體(non-practicing entity, 以下簡稱NPE)」乃是一個中性的名詞,NPE一方面可促進專利技術交易市場的活絡,但另一方面也有NPE不以活絡專利技術交易市場為目的,而是透過以低價購買專利成為專利權人,並據以行使《專利法》上之權利,投機性地靜待商品製造者投入不可回復之鉅額投資後,始對該商品製造者行使專利侵權主張,對於後者有人將其稱之為「Patent Troll」(中文有譯為「專利巨人」、「專利蟑螂」、「專利流氓」、「專利地痞」或「專利恐怖份子」等等,以下統譯為「專利地痞」)。 專利地痞藉由有問題的專利申請範圍恐嚇企業並勒索和解金的案例激增,對美國造成數十億美元的經濟耗損並且破壞了美國的創新,其橫行的技術領域以智慧型手機及其他消費性電子產品為最。根據加州舊金山的專利顧問公司RPX所作的研究,至2014年,美國專利侵權訴訟中有63%的訴訟是由專利地痞所提起,而受害公司花費在法律費用、和解或判決的費用約122億美元。因此如何降低專利訴訟的成本、降低無效專利的數量及提升專利權的授予品質都成為美國的重要政策目標。 貳、美國政府的對應措施 為了解決專利地痞所帶來的問題,美國早在2011年由國會通過《萊希-史密斯美國發明法(Leahy-Smith America Invents Act of 2011),以下簡稱AIA》,該法並於2012年生效。其目的在於透過改善美國專利制度,包括為發明人提供專利處理程序的快速通道、採取重要步驟來降低專利案件的積壓及提升美國人在國外保護其智慧財產權的能力等等。 不過,專利地痞所帶來的挑戰依舊,特別是專利地痞提出侵權訴訟之成本與被控侵權公司為了防禦所付出的成本之間不具對稱性,這使得專利地痞有機會以和解取得利益。因此,2013年美國政府曾向其國會提出立法七項建議,也祭出五項行政措施,使專利制度更具有透明性,並為發明者創造一個公平競爭的環境。 參、美國國會積極立法 對此,美國開始了多項進一步管理專利地痞的立法進程。以下將就2015年美國國會針對專利地痞所提出之法案進行介紹。 (一)新版創新法案(the Innovation Act) 本法案2015年2月5日送入美國眾議院審議,其法案接續2011年的「美國發明法案」(the American Invents Act,AIA),企圖進一步解決專利地痞濫用訴訟之難題,其中重要條款包括:由敗訴方負擔律師費、提高專利訴訟的成案基準(pleading standard)、專利權人揭示制度、客戶中止訴訟程序等等。 (二)警告函透明法案(Demand Letter Transparency Act of 2015) 美國眾院於2015年4月20日提出《警告函透明法案》,該法案首先要求美國專利與商標局(USPTO)建立一個公開可查詢的警告函資料庫,然後要求大量寄發侵害警告函的行為人必須透過這個資料庫對USPTO揭露其行動,同時侵害警告函的內容也必須記載這些資訊,使收信人能夠公平得知。 (三)保護美國人才與企業法案 美國參議院於2015年4月底針對抗衡美國patent troll提出法案,該法案名為《the Protecting American Talent and Entrepreneurship (PATENT) Act》。希望能制止美國近年來濫用美國專利制度,所造成許多不必要之專利訴訟案件等情形。美國眾議院於2015年5月底又針對PATENT Act法案作出修正,希望在打擊專利地痞的同時,又不至於而造成專利權人濫用AIA的保護。 肆、結論 為了解決專利地痞的問題,美國政府分別從立法及行政措施著手,依據美國歐巴馬總統的建議,不論是美國政府或是美國國會,刻正積極雙管齊下透過各項行政手段,例如修改專利相關規則,或者透過國會立法方式,對專利地痞進行規制。其實,專利地痞不僅橫行於美國,其亦在許多國家從事相關活動,故美國相關行政措施與立法,勢必成為各國在解決專利地痞問題時的重要參考依據,因此美國各項法案的後續發展,都值得吾人繼續關注。
美國專利商標局宣布快軌上訴試驗計畫美國專利商標局(The United States Patent and Trademark Office, USPTO)於今年7月1日發布新聞稿,即專利審判及上訴委員會(Patent Trial and Appeal Board, PTAB)開始加速處理單方上訴的計畫。該計畫名為「快軌上訴試驗計畫(Fast-Track Appeals Pilot Program)」並於今年7月2日正式啟動。 根據該計畫,專利審判及上訴委員會上訴裁決的目標時間預計為該上訴被賦予快軌(即批准加速審查)之日起六個月內,此與美國專利商標局之期望相符。蓋目前單方面上訴的裁決時間平均約14個月,因此,對於申請該計畫的人來說,該計畫平均應將上訴程序縮短約8個月。惟申請該計畫所需費用為400美元,且被批准的申請案會被限制在每季125件,會計年度最多500件,預計施行一年。 美國商務部負責智慧財產權事務副部長兼USPTO局長Andrei Iancu表示:「這是USPTO史上首次,申請人將能夠加快專利審查和單方上訴的速度,從而能較典型申請案約一半的時間內,就其最重要的發明做出決定。」。PTAB首席法官Scott Boalick亦表示:「近年來,我們取得了長足的進步,將上訴待決時間從2015年的平均30個月減少到目前的平均14個月。很高興PTAB現在能夠為申請人提供更快的途徑,從而使發明人和企業能夠更快地將其專利發明商業化。」 值得一提的是,我國智慧財產局亦有發明專利加速審查(Accelerated Examination Program, AEP)及商標加速審查機制。而AEP更早於民國98年1月1日起試辦實施,依據申請事由之不同,智財局將在申請人齊備相關文件後,於6個月內或9個月內發出審查結果通知。
歐盟提出人工智慧法律框架草案歐盟執委會於2020年2月公布《人工智慧白皮書》(AI White Paper)後,持續蒐集各方意見並提出新的人工智慧規範與行動。2021年4月針對人工智慧法律框架提出規範草案(Proposal for a Regulation on a European approach for Artificial Intelligence),透過規範確保人民與企業運用人工智慧時之安全及基本權利,藉以強化歐盟對人工智慧之應用、投資與創新。 新的人工智慧法律框架未來預計將統一適用於歐盟各成員國,而基於風險規範方法將人工智慧系統主要分為「不可接受之風險」、「高風險」、「有限風險」及「最小風險」四個等級。「不可接受之風險」因為對人類安全、生活及基本權利構成明顯威脅,故將被禁止使用,例如:政府進行大規模的公民評分系統;「高風險」則是透過正面例舉方式提出,包括:可能使公民生命或健康處於危險之中的關鍵基礎設施、教育或職業培訓、產品安全、勞工與就業、基本之私人或公共服務、可能會干擾基本權之司法應用、移民與庇護等面向,而高風險之人工智慧在進入市場之前須要先行遵守嚴格之義務,並進行適當風險評估及緩解措施等。「有限風險」則是指部分人工智慧應有透明度之義務,例如當用戶在與該人工智慧系統交流時,需要告知並使用戶意識到其正與人工智慧系統交流。最後則是「最小風險」,大部分人工智慧應屬此類型,因對公民造成很小或零風險,各草案並未規範此類人工智慧。 未來在人工智慧之治理方面,歐盟執委會建議各國現有管理市場之主管機關督導新規範之執行,且將成立歐洲人工智慧委員會(European Artificial Intelligence Board),推動人工智慧相關規範、標準及準則之發展,也將提出法規沙盒以促進可信賴及負責任之人工智慧。