美國聯邦最高法院於2017年6月13日受理Oil States Energy Servs., LLC v Greene’s Energy Group, LLC案之上訴,並將針對美國發明法的專利複審程序是否有違憲之虞的爭點進行處理。事實上,自從2016年美國聯邦最高法院的Cuozzo Speed案認定專利審判暨上訴委員會(Patent Trial and Appeal Board, PTAB)之專利複審程序可適用最寬廣合理解釋原則(broadest reasonable interpretation standard,BRI)後,針對美國專利法第314條規定美國專利複審程序之最終裁決結果不可上訴條款,就已經突顯出可能違憲之問題。加以來自各界的法庭之友於MCM訴惠普專利侵權案中提交意見書,以促使法院審理美國發明法的專利複審程序究竟有無違反美國憲法第3條及修正法案第7條,而有法律條文賦予行政機關司法權力是否違憲之議題,也再一次突顯專利複審程序可能存在的違憲問題。
本案件聯邦最高法院將對PTAB的權限以及專利複審程序進行重新檢視。倘若專利複審程序中PTAB最終裁決結果不可上訴條款造成違憲,可能會影響到美國專利制度之運作,不僅是正在申請或是已獲證的專利都會受到影響。而曾經被PTAB裁決無效的專利,也可能產生尋求司法救濟的可能。
本文為「經濟部產業技術司科技專案成果」
美國聯邦第九巡迴上訴法院於2020年12月針對繼承知名美國兒童繪本暢銷漫畫家蘇斯博士(Dr. Seuss)豐沛創作智財權之蘇斯博士企業(Dr. Seuss Enterprises,後稱原告)指控ComicMix公司及其三位創作成員(後稱被告)侵犯其著作權與商標權一案,作出認定被告侵害原告之著作權判決。 原告指出被告儘管混搭了《星艦迷航記》(Star Trek)之角色元素而提出《Oh, the Places You’ll Boldly Go!》(後稱系爭創作),然而實質上卻抄襲了蘇斯博士於1990年所創作的《Oh, the Places You'll Go!》(後稱原創作),並將該系爭創作於募資平台Kickstarter上籌措出版經費;在2019年3月一審判決中,被告宣稱其以戲謔方式呈現該系爭創作而被美國加州南區聯邦地方法院所採認,即該系爭創作具轉化性(transformative)而屬於著作權之合理使用,為此原告上訴至美國聯邦第九巡迴上訴法院。 上訴法院之判決主要根據美國著作權法第107條合理使用之四項判斷原則,該系爭創作僅僅呼應原創作而未對其進行嘲諷,且亦未增加任何新的表達、意義或訊息,因而認定該系爭創作並不具轉化性且無疑地將該系爭創作進行商業性使用,此外戲謔手法必須在有對受著作權所保護之創作進行批判或評論的情況下才會成立。其中,第三項要素「所利用之質量及其在整個著作所占之比例」為判決之關鍵所在,以量而言,將近百分之六十原創作被該系爭創作所複製,就質而論,該系爭創作竊取了原創作之核心;針對第四項要素「利用結果對著作潛在市場與現在價值之影響」,也因為未具轉化性與商業性使用而實質傷害原創作之市場價值,因而推翻一審判決認定系爭創作侵害原創作之著作權。 至於商標權侵害部分,儘管原創作具獨特品牌字體與創作風格,但上訴法院認為該些獨特風格不應該限制其他創作者之藝術表現,在權衡系爭創作之表達詮釋且未明確誤導消費者該系爭創作之來源,最終駁回原告商標侵權之主張。 「本文同步刊登於TIPS網站(https://www.tips.org.tw )」
美國國防部「人工智慧國防運用倫理準則」美國國防部(Department of Defense)於2020年2月採納由美國國防創新委員會(Defense Innovation Board, DIB)所提出之「人工智慧國防運用倫理準則(AI Principles: Recommendations on the Ethical Use of Artificial Intelligence by the Department of Defense)」,以衡平倫理與人工智慧於國防帶來之增益。 美國國防創新委員會為美國聯邦政府下之獨立委員會,設置目的在於依美國新創科技,提供意見予美國國防部,與美國國防部並無隸屬關係。有鑑於人工智慧之運用範疇日益增廣,美國國防創新委員會遂提出旨揭「人工智慧國防運用倫理準則」,以因應人工智慧於國防之應用所產生之問題。 倫理準則適用於「戰爭或非戰爭用途之人工智慧之設計以及應用」,對於「人工智慧」之定義,倫理準認為人工智慧並無精確之範疇,只要「對於資訊有所處理並旨在達到所賦予任務之資訊系統」,皆為本準則下之人工智慧。倫理準則指出,「人工智慧」與美國國防部3000.09指令下之「自動化武器系統(Autonomous Weapon System)」之定義不同,但有可能重疊,而所謂「自動化武器系統」為「一經人類選擇啟動,即可在無人類監督之情形下,自動針對目標進行鎖定或進行攻擊之自動化武器系統」。 美國國防創新委員會表示,該準則旨在切合美國既有憲法、法律、國際公約之傳統標準下,融入現代化對於人工智慧之要求,如國際公約中之戰爭法(Law of War)即為本準則之傳統標準之一,舉例而言,如人工智慧被裝置於武器中,其設計及應用應符合最小傷亡原則、避免傷及無辜原則等。 除此之外,準則亦包含以下現代化對於人工智慧之要求:(1)人類對於人工智慧系統之設計、應用以及使用應善盡判斷以及注意義務,且人類應該對於人工智慧系統因瑕疵所帶來之傷害負擔最終責任;(2)對於目標之選擇或分類,應維持公平性,且不得有歧視性;(3)對於人工智慧之設計、應用以及使用,應有明確之工程標準以及資料保存程序,此一工程標準以及資料保存程序應為一般具有專業知識之工程人員可據以理解、分析、追蹤問題所在並加以改善;(4)「戰爭或非戰爭用途之人工智慧」應有明確之應用領域,且完善之檢測、維修,應適用於該人工智慧之全部生命週期。
美國聯邦通訊委員會發布公告重申自動簡訊發送適用電話消費者保護法聯邦通訊委員會(Federal Communication Commission, FCC)於2016年11月18日發布一項標題為Robotext Consumer Protection的執法諮詢文件。該文件就自動發送簡訊(Autodialed text messages,又稱robotexts)於電話消費者保護法(Telephone Consumer Protection Act of 1991, TCPA )內的適用予以釐清。 在該執法諮詢文件內,解釋TCPA法條中對於自動撥號系統定義為任何可以儲存或是產出號碼並自動撥打的設備。該法對於自動撥號系統之限制,包含通話(call)、預錄語音(prerecorded calls)及簡訊(texts),除非已取得接收方的明示同意(prior express consent),或符合下列狀況之一,方得以自動撥號系統為之: (1) 基於緊急狀況, (2) 在依循消費者隱私保護的情況下,對終端使用者為免費且獲得FCC的豁免, (3) 單純為回收對聯邦所負擔的債務、或其所保證的債務。 值得注意的是,聯邦通訊委員會針對當下網路科技發展出的訊息傳送模式做出解釋,簡訊apps、以及任何符合TCPA自動撥號定義的「網路至電話之簡訊傳送」(Internet-to-phone text messaging)等兩種情況亦納入TCPA的適用。因此,發送方主張對方已為事前同意者,應負擔舉證責任,並使消費者透過合理方式隨時取消其同意;於其主張不想再收到任何自動發送簡訊後,該發送方應立即發送一封簡訊以確認接收者的「選擇退出」要求(opt-out request)。 再者,對於已移轉的門號進行自動簡訊之發送,不論發送方是否有認知該門號換人持有,在未經該門號持有人同意的情況下,發送方至多只能對該號碼自動發送一封簡訊;如之後再度自動發送簡訊,即判定違反TCPA規範。 FCC此份文件雖從保護消費者的立場出發,但所設條件明顯苛刻,因此引發諸多爭議。此外引人注意的是,此文件發布前的一個月,ACA International v. FCC一案才於10月19日結束言詞答辯,該案爭點主要為FCC是否不當擴張適用TCPA,此案後續可用以追蹤該案聯邦法院是否肯認FCC對於TCPA的適用觀點。
歐盟議會發布《可信賴人工智慧倫理準則》2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。 問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。