《演算法問責法案》(Algorithmic Accountability Act)於2022年4月由美國參議院提出,此法案係以2019年版本為基礎,對演算法(algorithm)之專業性與細節性事項建立更完善之規範。法案以提升自動化決策系統(automated decision systems, ADS)之透明度與公平性為目的,授權聯邦貿易委員會(Federal Trade Commission, FTC)制定法規,並要求其管轄範圍內之公司,須就對消費者生活產生重大影響之自動化決策系統進行影響評估,公司亦須將評估結果做成摘要報告。
《演算法問責法案》之規範主體包括:(1)公司連續三年平均營業額達5000萬美元,或股權價值超過2.5億美元者,並處理或控制之個人資料超過100萬人次;以及(2)公司過去三年內,財務規模至少為前者之十分之一,且部署演算法開發以供前者實施或使用者。ADS影響評估應檢視之內容包括:
1.對決策過程進行描述,比較分析其利益、需求與預期用途;
2.識別並描述與利害關係人之協商及其建議;
3.對隱私風險和加強措施,進行持續性測試與評估;
4.記錄方法、指標、合適資料集以及成功執行之條件;
5.對執行測試和部署條件,進行持續性測試與評估(含不同群體);
6.對代理商提供風險和實踐方式之支援與培訓;
7.評估限制使用自動化決策系統之必要性,並納入產品或其使用條款;
8.維護用於開發、測試、維護自動化決策系統之資料集和其他資訊之紀錄;
9.自透明度的角度評估消費者之權利;
10.以結構化方式識別可能的不利影響,並評估緩解策略;
11.描述開發、測試和部署過程之紀錄;
12.確定得以改進自動化決策系統之能力、工具、標準、資料集,或其他必要或有益的資源;
13.無法遵守上述任一項要求者,應附理由說明之;
14.執行並記錄其他FTC 認為合適的研究和評估。
當公司違反《演算法問責法案》及其相關法規有不正當或欺騙性行為或做法時,將被視為違反《聯邦貿易委員會法》(Federal Trade Commission Act)規定之不公平或欺騙性行為,FTC應依《聯邦貿易委員會法》之規定予以處罰。此法案就使用ADS之企業應進行之影響評估訂有基礎框架,或可作為我國演算法治理與人工智慧應用相關法制或政策措施之參酌對象,值得持續追蹤。
生技藥品是植基於活體生物的原理所開發出來的治療藥品,自第一批生技藥品上市以來,其專利在最近幾年已陸續到期,因此生技業者對於推出這些生物製品的學名藥版本(generic versions of biologics,以下簡稱生技學名藥),躍躍欲試。然而,美國當前的學名藥法規—藥品價格競爭及專利回復法(Drug Price Competition and Patent Restoration Act, 又名Hatch-Waxman Act, HWA),乃是針對化學藥品的學名藥版本所制定的法規,此類學名藥與生技學名藥並不相同,因此既有的學名藥法規並不能適用於生技學名藥,生技業者無不引頸企盼政府部門通過新的法規,以使生技學名藥儘速上市。 美國參議院最近提出一項生技學名藥法案—生技製品價格競爭與創新法(Biologics Price Competition and Innovation Act, BPCIA),一如HWA,BPCIA的內容也呈現出各種利益折衝的色彩,法案一方面賦予FDA對生技學名藥進行審核的新權限,並藉由減少臨床試驗之進行,加速生技學名藥的上市;另一方面,為避免低價的生技學名藥會對品牌藥的銷售產生衝擊,法案也有針對生技研發公司的研發誘因設計,以鼓勵其持續投入資金,開發更多的生技治療藥品。未來生技學名藥廠需要配合FDA所規劃的風險管理計劃(該計劃的相關立法目前尚待眾議院審議),故生技學名藥廠於其生技學名藥上市後,仍有進行臨床試驗之義務。 法案中最具爭議的條文在於,究竟應給予生技研發公司多長的銷售獨家銷售權(market exclusivity),始得允許生技學名藥廠加入市場競爭,生技研發公司與生技學名藥廠對此的歧見甚大,前者主張十四年,後者則認為五年的時間已足,目前法案訂為十二年。另一個不易處理的議題,則是藥師如何處理此類的生技學名藥,根據目前的法案內容,未來藥師亦可不經徵詢醫師而以生技學名藥代替之。
由歐盟數位單一市場著作權指令觀察國際數位內容智慧財產權保障趨勢由歐盟數位單一市場著作權指令觀察國際數位內容智慧財產權保障趨勢 資策會科技法律研究所 許椀婷 法律研究員 2019年1月17日 壹、背景說明 考量互聯網跨境傳輸,以及各國間著作權制度差異所帶來的影響,歐盟早於2015年即提出立法草案,討論至今預定於今年(2019)1月進行最終表決的「歐盟數位單一市場著作權指令草案(Directive on Copyright in the Digital Single Market, COD)」,其中第13條規定:「線上內容共享服務提供商和權利人應真誠合作,以確保排除未經授權的受保護作品或其他主題服務。」[1],對線上內容共享服務提供商在提供權利人的權利保障上義務進行規範,引發許多有大量轉載用戶的大型數位內容平台(如google)的抗議。 以我國現況而言,著作權法敘明網路服務提供者之民事免責事由,並在第90-4條規範網路服務提供者應以契約、電子傳輸、自動偵測系統等方式,告知使用者其著作權或製版權保護措施,並確實履行該保護措施。並在告知累計三次侵權情事下,終止其提供的全部或部分服務。上述保護措施經主管機關核可,網路服務提供者應配合執行。[2]國家通訊傳播委員會更於2017年提出「數位通訊傳播法草案[3]」,賦予數位通訊平台業者(如:Facebook)概念相同之避風港條款:若平台提供者接獲有人檢舉平台內容侵權,業者將侵權內容下架就能免責,相對歐盟的立法方向,是以提供誘因以協助保障智慧財產權為核心作法。本文將對COD第13條所引發的爭議進行討論,做為我國後續相關修法之借鏡。 貳、侵權行為的刪除 COD第13條爭議之一,為該條款賦予線上內容共享服務提供商應刪除侵權內容之義務,但各界對應如何識別和刪除尚未達成共識。該指令過往版本中的「內容識別技術(content recognition technologies)」,普遍被解讀為要求平台使用自動化過濾器來掃描每一段上傳內容,阻止任何可能侵害著作權的行為。該識別技術讓人聯想到YouTube行之有年的Content ID[4],其對影片和音訊進行侵權比對,標記平台內重複的內容,權利人經系統通知可透過下述方式維護權利,包括封鎖內容或追蹤、獲取觀看者資訊,作為行銷分析之用;或直接於影片中插入廣告增加收入。此外,權利人還能在Content ID無法檢測到重覆內容下進行手動聲明。Content ID在實務運作上飽受抨擊,原因包括配合「數位千禧年著作權法(Digital Millennium Copyright Act, DMCA)」的通知與刪除制度,增加平台業者封鎖或復原影片的負擔;Content ID的比對更有因自動化產生錯誤、資料庫既存錯誤、或惡意舉報等風險。[5]Youtube雖已在技術開發上耗費6,000萬美元[6],且尚需負擔Content ID每日檢查大量數位內容的傳輸成本,結果仍然不是人人滿意,可見為何大眾會對內容識別技術的要求如此擔憂。由Content ID的案例可觀察出,辨識原始內容就遭遇如此多的困難,更不用說要準確辨識現在時下流行的二次創作,如對擷取新聞、電影畫面進行評論,或將圖片進行創意、詼諧嘲諷的改作等影片利用是否合法了。未來COD草案該條款的施行,恐對二次創作的流通產生一定程度的限制。 回顧我國目前著作權、及數位通訊傳播法草案等法規,針對網路服務提供者[7]、數位通訊傳播服務提供者[8]避風港,對業者的歸責較COD相對輕。而在業者需提供的技術上,經濟部智慧局已對著作權法第90條內提及之「通用辨識或保護技術措施」提出解釋,用以辨識(identify)或保護(protect)著作權或製版權之相關措施,如過濾網路侵權資訊、監測網路流量之技術等,均屬之,且強調該條款並非課予網路服務提供者負有發展該等技術措施之義務,智慧局將徵詢網路服務提供者、權利人及相關技術專家意見,並考量負擔成本等因素[9]。 參、結論與建議 在COD的進展上,目前COD的最新修訂草案已移除了內容識別技術的用詞,並補充例外應特別考慮基本權利,以例外和限制確保中小企業的負擔仍然適當,並避免自動封鎖內容[10]。回應大眾對於無法負擔技術成本的抗議,避免一些小規模網站可能無法負擔聘用人員監管成本的問題。此外,歐盟更釋出新聞稿說明指令草案並未具體說明需要以哪些工具來實踐目標,故自動化過濾器僅為一種可能的解決方案之一。[11] COD草案若通過,歐盟各成員國將被要求於2年內修改國內法規,以符合該指令之規定。若屆時該指令所產生的成本負擔,在業者評估下仍過於沉重,許多平台可能選擇避開歐盟市場,造成歐盟成員國民眾可獲取的內容驟減。 在內容創作者越來越重視自身權益的年代,針對數位平台與創作者間的權利與義務不斷被拿出來討論,不管是著作權法或是數位通訊傳播法草案,都有可能被要求配合國際趨勢和科技發展進行調整。未來若考量進一步導入如歐盟COD的審核機制,提供數位內容平台通知下架以外的義務,以促進著作權的合法授權及合理分配,應同理審慎評估我國實際可執行的技術能力範疇為何,估計產業可能需負擔的成本,降低對產業產生的衝擊,並檢視實施此類機制所能帶來的效益程度,作為增添此義務之佐證依據。 [1] European Parliament,Copyright in the Digital Single Market(2018), http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//NONSGML+TA+P8-TA-2018-0337+0+DOC+PDF+V0//EN (last visited Jan. 15, 2019 [2]《著作權法》第90-4條:「符合下列規定之網路服務提供者,適用第九十條之五至第九十條之八之規定:一、以契約、電子傳輸、自動偵測系統或其他方式,告知使用者其著作權或製版權保護措施,並確實履行該保護措施。二、以契約、電子傳輸、自動偵測系統或其他方式,告知使用者若有三次涉有侵權情事,應終止全部或部分服務。三、公告接收通知文件之聯繫窗口資訊。四、執行第三項之通用辨識或保護技術措施。連線服務提供者於接獲著作權人或製版權人就其使用者所為涉有侵權行為之通知後,將該通知以電子郵件轉送該使用者,視為符合前項第一款規定。著作權人或製版權人已提供為保護著作權或製版權之通用辨識或保護技術措施,經主管機關核可者,網路服務提供者應配合執行之。」 [3] 行政院,《數位通訊傳播草案》(2017) [4] Youtube,Content ID 的運作方式(2019),https://support.google.com/youtube/answer/2797370?hl=zh-Hant [5] PlagiarismToday,(2019), YouTube’s Copyright Insanityhttps://www.plagiarismtoday.com/2019/01/10/youtubes-copyright-insanity/ (last visited Jan. 15, 2019) [6] Google,How Google Fights Piracy 2016(2016), https://drive.google.com/file/d/0BwxyRPFduTN2cl91LXJ0YjlYSjA/view (last visited Jan. 15, 2019) [7] 指提供下列服務者:(一)連線服務提供者:透過所控制或營運之系統或網路,以有線或無線方式,提供資訊傳輸、發送、接收,或於前開過程中之中介及短暫儲存之服務者。(二)快速存取服務提供者:應使用者之要求傳輸資訊後,透過所控制或營運之系統或網路,將該資訊為中介及暫時儲存,以供其後要求傳輸該資訊之使用者加速進入該資訊之服務者。(三)資訊儲存服務提供者:透過所控制或營運之系統或網路,應使用者之要求提供資訊儲存之服務者。(四)搜尋服務提供者:提供使用者有關網路資訊之索引、參考或連結之搜尋或連結之服務者。 [8] 指提供使用者數位通訊傳播服務(指提供公眾或他人使用數位通訊傳播-以有線、無線、衛星或其他電子傳輸設施傳送數位格式之聲音、影像、文字、數據或其他訊息之服務)之自然人、商號、法人或團體。 [9] 經濟部智慧財產局,著作權法網路服務提供者ISP民事免責事由Q&A(2013),https://www.tipo.gov.tw/ct.asp?xItem=207034&ctNode=7193&mp=1 [10] Special account shall be taken of fundamental rights, the use of exceptions and limitations as well as ensuring that the burden on SMEs remains appropriate and that automated blocking of content is avoided. [11] European Parliament, Q and A on the draft digital copyright directive(2019), http://www.europarl.europa.eu/news/en/press-room/20190111IPR23225/q-and-a-on-the-draft-digital-copyright-directive (last visited Jan. 15, 2019)
用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).
日本名古屋地方法院強調刑事手段對於營業秘密保護的必要性日本名古屋地方法院(下稱法院)在2022年3月18日,對於被控訴違反《不正競爭防止法》的「愛知製鋼」前董事本蔵義信(下稱本蔵)等,宣判無罪。被告本蔵致力研發磁阻抗( Magnetic Impedance, MI)感測器,嗣後對於提高感測器性能及開拓市場等方向,與「愛知製鋼」意見分歧。故於2014年離職另成立マグネデザイン公司,翌年研究發現Giga Spin Rotation (GSR)原理,能製造更小且性能更高的感測器,並取得多項專利。 在2017年,原告「愛知製鋼」以被告本蔵等在2013年的會議中洩露營業秘密等為理由,提起告訴。經過兩次搜查,檢調發現相關會議筆記及白板照片等證據,故向法院提起公訴。法院指出在刑事程序,同樣適用民事上營業秘密法定構成要件,然而本案涉及的技術資訊,屬於工程上一般性、抽象性資訊,不符合秘密性要件。此外,法院認為原告「愛知製鋼」除未落實機密分級,在書面資料上標示「機密」外;且在保密期限屆滿後,亦未與生產商再簽署保密契約,難認為已採取合理保密措施,故不能認定被告本蔵等洩漏營業秘密。 雖然日本經濟產業省已明確指出刑事罰係針對違法性高的行為,且法院對於刑事訴訟的舉證程度,要求必須達到無合理懷疑。同時社會亦有輿論認為調查人員應慎重判斷,避免因不當提起訴訟,造成科學技術發展的負面影響。但在本案中,法院則強調營業秘密對於企業經濟活動的重要性極高,為避免因營業秘密侵害行為,致損害企業競爭力,故採取刑事保護的必要性,越發提高。綜上所述,若企業欲透過刑事罰,保護營業秘密,須採取更嚴謹的管理措施,始能確保藉由刑事訴訟程序,主張權利救濟。 本文同步刊登於TIPS網站(https://www.tips.org.tw)