「日本農業數據協作平台」(簡稱WAGRI)於2017年內閣府計畫的支持下,委由慶應義塾大學建立,該平台具備農業數據相容、數據共有與數據提供三大機能,日本IT企業NTT、富士通、農機大廠久保田、洋馬等均已加入WAGRI試營使用行列。今(2019)年該平台將移轉予國立研究開發法人農業食品產業技術總合研究機構(下簡稱農研機構),正式開始進入商業模式營運。欲利用WAGRI之機關除須向WAGRI協議會(由農業法人、農機製造商、ICT供應商、學研機構組成,以提出建議改善、普及WAGRI為其立會宗旨)遞交「入會申請書」外,亦須向農研機構遞交「利用規約」、「數據提供利用規約」與「規約同意書兼利用申請書」。
自主營運後,原先不收費方式已變更,欲利用WAGRI之機關依據以下兩種利用平台方式,須繳納不同的費用:
我國為發展智慧農業,智慧農業共通資訊平台有提供免費OPEN DATA介接功能,近年發展智慧農業之農企/機關團體,亦有建立平台作為內部蒐集、利用數據之用,例如弘昌碾米工廠建置水稻健康管理與倉儲資訊服務平臺,未來該類平台均有可能朝商業模式發展。WAGRI建立一套商業模式嘗試自主營運,後續將持續追蹤WAGRI營運狀況作為我國智慧農業平台之運作參考。
「本文同步刊登於TIPS網站(https://www.tips.org.tw)」
聯邦通訊委員會(Federal Communication Commission, FCC)於2016年11月18日發布一項標題為Robotext Consumer Protection的執法諮詢文件。該文件就自動發送簡訊(Autodialed text messages,又稱robotexts)於電話消費者保護法(Telephone Consumer Protection Act of 1991, TCPA )內的適用予以釐清。 在該執法諮詢文件內,解釋TCPA法條中對於自動撥號系統定義為任何可以儲存或是產出號碼並自動撥打的設備。該法對於自動撥號系統之限制,包含通話(call)、預錄語音(prerecorded calls)及簡訊(texts),除非已取得接收方的明示同意(prior express consent),或符合下列狀況之一,方得以自動撥號系統為之: (1) 基於緊急狀況, (2) 在依循消費者隱私保護的情況下,對終端使用者為免費且獲得FCC的豁免, (3) 單純為回收對聯邦所負擔的債務、或其所保證的債務。 值得注意的是,聯邦通訊委員會針對當下網路科技發展出的訊息傳送模式做出解釋,簡訊apps、以及任何符合TCPA自動撥號定義的「網路至電話之簡訊傳送」(Internet-to-phone text messaging)等兩種情況亦納入TCPA的適用。因此,發送方主張對方已為事前同意者,應負擔舉證責任,並使消費者透過合理方式隨時取消其同意;於其主張不想再收到任何自動發送簡訊後,該發送方應立即發送一封簡訊以確認接收者的「選擇退出」要求(opt-out request)。 再者,對於已移轉的門號進行自動簡訊之發送,不論發送方是否有認知該門號換人持有,在未經該門號持有人同意的情況下,發送方至多只能對該號碼自動發送一封簡訊;如之後再度自動發送簡訊,即判定違反TCPA規範。 FCC此份文件雖從保護消費者的立場出發,但所設條件明顯苛刻,因此引發諸多爭議。此外引人注意的是,此文件發布前的一個月,ACA International v. FCC一案才於10月19日結束言詞答辯,該案爭點主要為FCC是否不當擴張適用TCPA,此案後續可用以追蹤該案聯邦法院是否肯認FCC對於TCPA的適用觀點。
歐洲藥品管理局更新利益衝突規範歐洲藥品管理局(The European Medicines Agency,EMA)於3月底至6月初陸續發布四份利益衝突範。包括「處理管理董事會利益衝突政策方針」(European Medicines Agency Policy on the Handling of Conflicts of Interests of the Management Board),將董事會自過去的利益衝突獨立出來單獨規範;並針對違反利益聲明揭露訂立「EMA科學委員會和專家違反利益衝突信賴程序」(European Medicines Agency Breach of Trust Procedure on Conflicts of Interests for Scientific Committee Members and Experts),和「EMA管理董事會違反利益衝突信賴程序」(European Medicines Agency Breach of Trust Procedure on Conflicts of Interests for Management Board Members);以及修定「處理管理董事會、科學委員會成員和專家利益衝突政策方針」(European Medicines Agency Breach of Trust Procedure on Conflicts of Interests for Scientific Committee Members and Experts)。 針對專家和管理董事會所制定的處理利益衝突規範,主要目的是確保兩者在參與EMA的活動時,不會發生與醫藥業者相關聯的利益衝突,影響EMA公正性。觀察上述規範,可以發現EMA對於專家和管理董事會兩者的規範原則相當一致,皆聚焦於增進利益衝突處理過程的強健性(robustness)、有效性(efficiency)和透明性(transparency)。分別規範的原因在於兩者功能上的區別,分述如下: 1. 專家規範層面,有鑒於在先進醫藥領域中的專家有限,缺少可替代性,因此規範目的在於兼顧公正性與專業之間的平衡; 2. 管理董事會層面,由於其主要任務為監管和決策,規範上區別成員所參與活動的程度和範圍做更為細部的規範,與專家不同,並非有利益衝突就必須迴避。 為進一步加強EMA處理利益衝突的強健性,EMA科學委員會和專家,以及管理董事會違反利益衝突信賴程序的主要規範內容為專家和管理董事會成員作出不實利益聲明時,EMA的處理程序。可區分為調查、聽證與修正三個階段,分述如下: 1.調查階段,首先調查系爭當事人是否為不實之利益聲明後,評估是否啟動違反利益衝突信賴程序; 2.聽證階段,召開聽證會,聽證系爭當事人陳述觀點。倘若確定違反利益衝突信賴,系爭當事人即自EMA除名; 3.修正階段,EMA將審查系爭當事人曾經參與科學審查案件的公正性,並評估是否進行補救措施。 雖然EMA對於專家是否確實聲明利益缺少強制力,然而仍能透過新的利益衝突機制設計,看出EMA對完善利益衝突規範的企圖,值得近來正在修訂利益衝突機制的我國學習。
綠色經濟草案(Green New Deal Resolution)簡介一、立法背景 由於美國國家海洋暨大氣總署(National Oceanic and Atmospheric Administration,縮寫NOAA)於2018年間發布關於氣候變遷將導致經濟發展受到影響之相關報告,同時間,美國最高法院拒絕駁回2015年由21位民眾及美國Our Children’s Trust(非政府組織)對聯邦政府所提起之訴訟,主張美國政府並未循正當法律程序,即鼓勵對環境保護傷害甚鉅之石化能源開發。因此聯合國人權暨環境特別報告(UN Special Rapporteur on human rights and the environment)呼籲各國盡快針對環境變遷採取相關行動,美國國會議員Ed Markey及Alexandria Ocasio-Cortez遂基於上述情事於2019年2月7偕同提出綠色經濟草案(下稱本草案)。 二、草案簡介 所謂綠色經濟,是因應全球經濟危機、氣候變遷、石油資源枯竭而提出,其內容包括金融及租稅政策的重建以及再生能源的運用,初始概念於2007年由一位記者刊載於時代雜誌與紐約時報,後相關倡議人士遂依此成立非政府組織The Green New Deal Group,並於2008年廣泛發行相關刊物。 三、草案內容 本草案賦予政府五大義務:溫室氣體零排放、創造百萬高薪工作機會、投資基礎設施及工業、永續環境(諸如確保空氣、水質、氣候、食品之安全、韌性社區之推動)、反壓迫等,且內容上更將前開義務再行細分為14項目標計畫,並訂定10年執行期間。 上揭14項目標計畫的內容大致可分為五類,分別為:提升基礎設施以因應各種氣候變遷所造成之災害、將政府所需能源全數轉換為零碳排放、提升電力及能源效率、消除製造業與農業所造成之汙染與溫室氣體的排放,另外亦全面將大眾運輸設施改建為高速及零碳排放系統。 為達成前述14項目標,本草案一共訂定15項須政府配合之細項,方向上包括:給予社區、組織、機關、地方政府及各法人相關協助、提供適切之訓練課程及高等教育、針對新興科技之研究與開發進行投資、提高家庭所得及保障各級勞工組織工會之權利、提供全民高品質之健康照護。
用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).