英國政府由數位文化媒體與體育大臣(Secretary of State for Digital, Culture, Media and Sport)與商業能源與工業策略大臣(Secretary of State for Business, Energy and Industrial Strategy)代表,於2022年7月18日提交予國會一份「人工智慧監管規範政策報告」(AI Regulation Policy Paper)。內容除定義「人工智慧」(Artificial Intelligence)外,並說明未來政府建立監管框架的方針與內涵。
在定義方面,英國政府認為人工智慧依據具體領域、部門之技術跟案例有不同特徵。但在監管層面上,人工智慧產物則主要包含以下兩大「關鍵特徵」,造成現有法規可能不完全適用情形:
(1)具有「適應性」,擅於以人類難以辨識的意圖或邏輯學習並歸納反饋,因此應對其學習方式與內容進行剖析,避免安全與隱私問題。
(2)具有「自主性」,擅於自動化複雜的認知任務,在動態的狀況下持續判斷並決策,因此應對其決策的原理原則進行剖析,避免風險控制與責任分配問題。
在新監管框架的方針方面,英國政府期望所提出的監管框架依循下列方針:
(1)針對技術應用的具體情況設計,允許監管機構根據其特定領域或部門制定和發展更詳細的人工智慧定義,藉以在維持監管目標確定與規範連貫性的同時,仍然能實現靈活性。
(2)主要針對具有真實、可識別與不可接受的風險水準的人工智慧應用進行規範,以避免範圍過大扼殺創新。
(3)制定具有連貫性的跨領域、跨部門原則,確保人工智慧生態系統簡單、清晰、可預測且穩定。
(4)要求監管機構考量更寬鬆的選擇,以指導和產業自願性措施為主。
在跨領域、跨部門原則方面,英國政府則建議所有針對人工智慧的監管遵循六個總體性原則,以保障規範連貫性與精簡程度。這六個原則是基於經濟合作暨發展組織(OECD)的相關原則,並證明了英國對此些原則的承諾:
1.確保人工智慧技術是以安全的方式使用
2.確保人工智慧是技術上安全的並按設計運行
3.確保人工智慧具有適當的透明性與可解釋性
4.闡述何謂公平及其實施內涵並將對公平的考量寫入人工智慧系統
5.規範人工智慧治理中法律主體的責任
6.釋明救濟途徑
除了「人工智慧監管政策說明」外,英國政府也發布了「人工智慧行動計畫」(AI Action Plan)文件,彙整了為推動英國「國家人工智慧策略」(National AI Strategy)而施行的相關行動。前述計畫中亦指出,今年底英國政府將發布人工智慧治理白皮書並辦理相關公聽會。
2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。 問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。
美國發布關於標準必要專利之政策宣言草案,擬修改核發禁制令態度美國司法部(United States Department of Justice)、美國專利商標局(The United States Patent and Trademark Office)、美國國家標準與技術研究院(National Institute of Standards and Technology)於2021年12月6日共同發布「修改『標準必要專利』授權協議及司法救濟方法之政策宣言草案」(Draft Policy Statement On Licensing Negotiations And Remedies For Standards-Essential Patents Subject To Voluntary FRAND Commitments,下稱2021政策宣言草案),並徵集公眾意見,截止時間為2022年2月4日。2021政策宣言草案係在回應2021年7月9日「促進美國經濟體競爭性行政命令」(Executive Order on Promoting Competition in the American Economy)關於檢討2019年「有關『標準必要專利』司法救濟方法之政策宣言」(Policy Statement On Remedies For Standards-Essential Patents Subject To Voluntary FRAND Commitments,下稱2019政策宣言)之要求。 2021政策宣言草案揭示了兩大重點: (一)改變SEP被侵害時,對禁制令(injunction)之核發態度 2021政策宣言草案對於「SEP被侵害時,是否核發禁制令」一事,擬回歸適用聯邦最高法院自eBay Inc. v. MercExchange, L.L.C., 547 U.S. 388 (2006)案以來,就禁制令之核發所設立之原則—(1)原告(專利權人)會因專利侵權而遭受無法填補(irreparable)的損害;(2)目前法律上之其他救濟方法,是不足以賠償專利權人所受的損害;(3)衡量專利權人及被授權人可能遭遇之困難,足認有必要進行衡平法上的救濟;(4)核發禁制令不會傷害到任何公共利益。 (二)揭示何謂符合「誠信原則」(good-faith)授權協議的指導原則 (1)雙方應以合宜態度推進授權協議: 以SEP專利權人而言,其應向潛在被授權人告知可能侵害該SEP的行為態樣;其並以「公平、合理及無歧視」(fair, reasonable, and non-discriminatory, FRAND)原則進行授權。 以SEP被授權人而言,其應於知悉以上資訊後,於商業上得被認為合理的時間內,以合宜態度推進該協議,或逕自接受該授權協議,或拒絕原要約而反向提出一合於FRAND原則之新要約(counteroffer)。其他合宜態度例如:就SEP專利權人提出進一步探詢(例如:詢問該SEP目前之專利有效性及有無侵權情形)或請求提供更具體的資訊,或建議目前雙方所遇到的授權上爭議可透過公正第三方解決。 茲有附言者,SEP專利權人在收到以上回應後,亦應「於合理的時間以合宜態度」推進授權協議,例如接受被授權人反向提出之新要約,或為使原授權協議較可被接受,再行提出一合於FRAND原則之授權條款,或回應被授權人想得知更多資訊之請求,或亦提出「可透過公正第三方解決雙方所遇到之授權紛爭」的方案等。 (2)雙方應合宜妥善解決紛爭: 如雙方因授權而生紛爭,建議尋求替代爭議解決方式(alternative dispute resolution);如仍欲透過司法解決,建議雙方就管轄法院達成合意,而非單方面擇定法院而提起訴訟。 此次徵求公眾意見的主要議題如下: (1)2021政策宣言草案是否較可適當平衡SEP專利權人及被授權人之利益? (2)「可申請核發禁制令」一事是否為SEP專利權人願意遵守FRAND原則的重要因素? (3)如何提升SEP授權協議之效率及透明度? (4)2021政策宣言草案所揭示對於SEP授權時之「誠信原則」之指導原則,可否為SEP授權協議建構良好架構? (5)是否有潛在SEP被授權人願意及不願意接受FRAND授權協議之情形? (6)有關單位是否曾經或應就SEP授權協議提供其他參考資訊?
何謂「阿西洛馬人工智慧原則」?所謂「阿西洛馬人工智慧原則」(Asilomar AI Principles),是指在2017年1月5日至8日,於美國加州阿西洛馬(Asilomar)市所舉行的「Beneficial AI」會議中,由與會的2000餘位業界人士,包括844名學者專家所共同簽署的人工智慧發展原則,以幫助人類運用人工智慧為人類服務時,能確保人類的利益。 該原則之內容共分為「研究議題」( Research Issues)、「倫理與價值觀」( Ethics and Values),及「更長期問題」( Longer-term Issues)等三大類。 其條文共有23條,內容包括人工智慧的研究目標是創造有益的智慧、保證研究經費有益地用於研究人工智慧、在人工智慧研究者和政策制定者間應有具建設性並健康的交流、人工智慧系統在其整個運轉周期內應為安全可靠、進階人工智慧系統的設計者及建造者在道德層面上是其使用、誤用以及動作的利害關係人,並應有責任及機會去影響其結果、人工智慧系統應被設計和操作為和人類尊嚴、權利、自由和文化多樣性的理想具一致性、由控制高度進階人工智慧系統所取得的權力應尊重及增進健康社會所需有的社會及公民秩序,而非顛覆之,以及超級智慧應僅能被發展於服務廣泛認同的倫理理想,以及全人類,而非單一國家或組織的利益等等。
美國聯邦最高法院判決維持Brulotte原則2015年6月美國聯邦最高法院大法官以6比3的同意比例判決維持該法院於1964年所確立之Brulotte原則,即專利失效後禁止要求償付授權金之原則。聯邦最高法院重新檢討Brulotte原則之爭議係起源於Kimble et al. v. Marvel Enterprises Inc.(case num. 13-720)一案。該案中涉及到現實下專利權利人於面對財團時,是否能於專利權有效期間採取手段充分保護專利權之問題,故是否有必要放寬專利權於失效後,專利權人仍得以專利授權契約要求專利被授權人償付授權金。又本案原告知專利發明人Kimble主張放寬Brulotte原則亦有亦於刺激競爭,促進研發創新。 然而,主撰判決本文之美國卡根大法官(Justice Kagan)及贊同維持Brulotte原則之大法官認為,Brulotte原則屬於聯邦最高法院遵照執行之決議事項(stare decisis),必須具有超級特別的理由(superspecial justification)才足以立論推翻該原則。但大法官認為並無有該類理由,並且強調縱然放寬Brulotte原則在學理上證實有助於市場競爭,但這也並非聯邦最高法院在司法權限所應審查或判斷之事項,而應是美國國會於智財政策之取捨。 反對維持Brulotte原則之阿利托大法官(Justice Alito)、羅伯特首席大法官(Chief Justice Roberts)及湯瑪斯大法官(Justice Thomas)提出不同意見書。反對意見認為專利失效及失去任何專有權利,所以涉及授權金之唯一問題即在於最佳契約設計(optimal contract design)。Brulotte原則干預了各方協議授權內容時,可以反映專利真實價值的方式,破壞契約期望(contractual expectation)。 本案作成判決後,各專利事務所及專利律師普遍贊同聯邦法院維持Brulotte原則,主要係基於該原則可以使用來償付授權金之資金轉為用於他處,有助於資金流通,而非用於已失效之專利。