人工智慧專利加速審查計畫(Accelerated Initiative for Artificial Intelligence,又稱AI2)是新加坡智慧財產局(Intellectual Property Office of Singapore, IPOS)於2019年4月宣布之計畫,目的在於加快與人工智慧相關的專利申請程序。該計畫自2019年4月26日開始實施兩年,每年有50位名額。專利申請權人申請適用該計畫並申請專利者,最快可在6個月內審核通過並授證。
適用AI2計畫之技術主體需與AI發明領域密切有關,該申請案之AI功能包含自然語言學習(Natural Language Processing)、影像辨識、聲音辨識、自動化系統(Autonomous Systems)、機器人、預測分析(Predictive Analytics)等;並須應用在生命科學、醫學、農業、資通訊、交通等領域。
AI2與新加坡智財局2018年實施的「金融科技專利優速計畫」(FinTech Fast Track Initiative, FTFT)類似,FTFT旨在加速金融科技領域之專利申請及審查時效。除了技術主體不同,兩者在申請和審查程序上大致類似:不需支付額外的申請與審查費用、該項專利之首件申請案需於新加坡智財局提出、專利請求項(claims)最多為20項、該項專利之「請求專利核准」與「請求專利檢索審查」文件需於同一日提交、專利申請權人收到實質審查意見書需兩個月內回覆等。
人工智慧是新加坡轉型為數位經濟國家的關鍵,隨著全球AI專利申請活躍,新加坡智財局支持將AI產品更快地推向市場,並期望有利新加坡爭取更多新創企業及投資。
本文為「經濟部產業技術司科技專案成果」
歐洲法院(Court of Justice of the European Union)日前(2015年10月22日)裁決,根據歐盟增值稅指令(Council Directive 2006/112/EC of 28 November 2006 on the common system of value added tax (OJ 11.12.2006 L 347, p. 1-118, ‘the VAT Directive’)),虛擬通貨比特幣(bitcoin)與其他傳統通貨的兌換交易免徵增值稅。 本案肇因於歐盟會員國瑞典之國民David Hedqvist欲申請線上比特幣交易平臺營利,預先向瑞典稅法委員會(Swedish Revenue Law Commission)申請先裁決定(preliminary decision),以確認比特幣與其他傳統通貨,諸如瑞典克朗,之間的兌換交易免徵增值稅。委員會表示,比特幣作為一種支付方式,其使用與合法的支付方式相似,因此比特幣與傳統通貨之間的兌換免徵增值稅。然而瑞典稅務機關(Skatteverket; the Swedish Tax Authority)對該決定不符因而上訴至瑞典最高行政法院(Högsta förvaltningsdomstolen; Supreme Administrative Court, Sweden)。法院認為本案涉及歐盟增值稅指令之解釋,因此以之為先決問題暫停訴訟而提交至歐洲法院,請求先行裁決(the reference for a preliminary ruling)。先行裁決是歐盟法院進行的程序之一,由各會員國法院請求其對歐盟法內容或效力作出解釋並拘束所有會員國,藉此保證歐盟法的法確定性及適用上的一致性。 瑞典最高行政法院認為,固然可以從歐洲法院先前判決推導出:從傳統通貨與虛擬通貨的兌換交易中,取得買賣虛擬通貨之差額作為對價,構成「提供服務以獲取對價」。有疑者,該等交易是否被歐盟增值稅指令第135條第1項各款規定所涵蓋,而屬於得免除增值稅之金融服務提供。其提交歐盟法院請求解釋之問題有二:第一,系爭交易是否屬於歐盟增值稅指令第2條第1項所定之「提供服務以獲取對價」之交易;第二,如是,該等交易是否屬於同法第135條第1項所規定得免除增值稅之交易? 歐洲法院認為,比特幣具有雙向通貨流的性質,而其除了作為支付工具之外別無意義。該虛擬通貨與傳統通貨的兌換,性質上屬於不同支付方式的交換;此外,比特幣販售者所獲得報酬等同於其買賣比特幣的價差,與交易有直接連結,屬於歐盟增值稅指令第2條第1項c款「提供服務以獲取對價」之交易。 關於第二個爭點,歐洲法院認為,歐盟增值稅指令第135條第1項e款之目的即在於避免金融交易中,決定應稅額及增值稅抵扣額的困難。更重要者,傳統通貨與虛擬通貨比特幣之相互兌換,在交易雙方都可接受比特幣作為支付方式之情況下,僅是不同支付方式之交換而屬於金融交易。若將系爭交易排除於該款適用範圍之外,將會剝奪規範目的的部份效果,因此應認定其免徵增值稅。 至於此裁決是否代表歐盟全面肯認,諸如比特幣等具有雙向通貨流性質之虛擬通貨,其作為通貨的性質?裁決中提到,就歐盟指令而言,虛擬通貨與電子錢不同,且前者並非以諸如歐元之傳統記帳單位(traditional accounting units)表示,僅是虛擬記帳單位。因此,比特幣乃至虛擬通貨於歐盟法上之定位,仍有待觀察。
美國能源關鍵基礎設施議題觀察 美國聯邦資料戰略〈2020年行動計畫〉美國白宮於2018年3月發布〈總統管理方案(President’s Management Agenda)〉,其中發展「聯邦資料戰略(Federal Data Strategy)」,將資料作為戰略資產,藉以發展經濟、提高聯邦政府效能、促進監督與透明度,為方案中重要之工作目標之一。「聯邦資料戰略」之架構上主要包括四個組成部分,以指導聯邦資料之管理和使用:1.使命宣言:闡明戰略之意圖與核心目的;2.原則:有十大恆定原則對於機關進行指導;3.實作規範:有四十項實作規範指導機關如何利用資料之價值;4.年度行動計畫:以可衡量之活動來實踐這些實作規範。 於2019年12月23日,〈2020年行動計畫〉之最終版正式發布,其將建立堅實之基礎,在未來十年內支持戰略之實踐。詳言之,〈2020年行動計畫〉之內涵主要包含三大部分與二十個行動: 機關行動:旨在支持機關利用其資料資產,包括六大行動:(1)行動1:確認用於回答對於機關而言具有優先性之問題所需之資料;(2)行動2:將機關之資料治理制度化;(3)行動3:評估資料與相關基礎設施之成熟度;(4)行動4:確認提高員工資料技能之機會;(5)行動5:確認用於機關開放資料計劃之優先資料資產;(6)行動6:發布與更新資料庫存。 實踐共同體之行動:由特定機關或一群機關就一共通主題所採取之行動,可加速並簡化現有要求之執行,包括下列四大活動:(1)行動7:成立聯邦首席資料官委員會;(2)行動8:改善用於AI研究與發展之資料與模型資源;(3)行動9:改善財務管理資料標準;(4)行動10:將地理空間資料實務整合至聯邦資料事業中。 共享解決方案行動:為所有機關之利益、由單一機關或委員會試行或發展之活動:(1)行動11:開發聯邦事業資料資源儲存庫;(2)行動12:創建美國預算管理局聯邦資料政策委員會;(3)行動13:制定策畫之資料技能目錄;(4)行動14:制定資料倫理框架;(5)行動15:開發資料保護工具組;(6)行動16:試行一站式之標準研究應用程序;(7)行動17:試行一種自動化之資訊收集評論工具,該工具支持資料庫存之創建與更新;(8)行動18:試行用於聯邦機構之增強型資料管理工具;(9)行動19:制定資料品質評估與報告指引;(10)行動20:發展資料標準之儲存庫。 〈2020年行動計畫〉確定機關之初步行動,其對建立流程、建立能力、調整現有工作以更好地將資料作為戰略資產至關重要。未來之年度行動計畫將會在〈2020年行動計畫〉之基礎上進一步發展出針對聯邦資料管理之協調方案。
用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).