新加坡國立大學生物工程系科研人員宣佈,他們利用天然聚合物製成可以診斷癌細胞、又可殺死癌細胞的奈米載體。該系助理教授張勇相信,這是全球首次成功利用天然聚合物製成奈米顆粒。
研究甲殼素多年的張勇指出,從螃蟹、蝦殼中提煉出來的甲殼素,在實驗室內製成奈米顆粒的過程中,最困難的就是體積的控制,因為天然聚合物分子一般比較大。但最後仍突破瓶頸,以甲殼素研製出直徑約五十奈米的奈米顆粒,很容就可以被比它大一百倍到四百倍的人體細胞吸收。他說,這種利用天然聚合物製成的奈米顆粒,具備適合生物體、擁有生物功能等特性。
這些奈米顆粒將可用來裝載被稱為人工原子,以細微半導體材料製成的量子點和藥物。由於量子點受光源照射時會發光,不同大小量子點發出不同的光,發光時間可以維持幾個小時。因此把裝載量子點和藥物的奈米顆粒送入讓癌細胞吸收後,就可用光源照射,讓醫生可以辨認哪些是癌細胞,再把癌細胞殺死。目前其已與國大醫學院展開合作,在成肌細胞內注入裝載量子點的奈米顆粒,然後把成肌細胞移植到動物心臟,以進一步了解成肌細胞如何修復心臟組織。
本文為「經濟部產業技術司科技專案成果」
用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).
英國資源與廢棄物策略英國環境食品與鄉村事務部於2018年12月18日提出「英國資源與廢棄物策略」(Resources and waste strategy for England),以全面性的角度提出英國對資源與廢棄物的處理政策,包含如何最有效利用資源與最小化廢棄物的產出,追求在2050年達到加倍資源生產力,並禁絕包含塑膠廢棄物在內之可避免廢棄物產生,作為英國推動循環經濟的政策藍圖。 這份政策文件可以區分為三大部分,第一部分為產品的生命週期,包含從製造、消費到生命週期的完結;第二部分為主要議題,聚焦在論證環境犯罪(waste crime)與食物浪費(food waste)此兩大議題並不適用於前述的產品生命週期;並且在第三部分的未來展望上,提出三大面向突破傳統的產品生命週期觀點,包含國際領導(international leadership)、研究創新(research & innovation)與監管措施(data, monitoring and evaluation),建立起資源與產品生命週期的循環,以達到追求最大化資源利用效益與最小化廢棄物產生的目標。 在政策文件當中特別呼應了歐盟塑膠對策(EU Plastic Strategy),強調在英國針對塑膠議題提出的2025指引(The UK Plastics Pact – A Roadmap to 2025)當中,目標在2025年達到消滅無法處理或一次性使用之塑膠廢棄物,使用100%可再利用、回收或可分解之塑膠包材,達成70%的塑膠包材可回收或分解效率,並於塑膠包材中使用30%以上的可再生原料。
智慧電表的陷阱美國及歐洲都開始引進附加通訊功能的電表(所謂智慧電表)。這一波動向也真正開始影響到日本。日本國內最大家的東京電力公司將於2010年10月開始進行智慧電表的實際驗證研究。 雖然至今只有關西電力公司與九州電力公司有引進智慧電表,但在10年之後,日本大半以上的電表會是智慧電表。 從短期來看,智慧電表就只具有使用電力的遠距抄表跟遠距截斷的功能。但是就只具有這樣的功能是不足以讓眾多目光聚焦的,它所具有的是期待在未來透過電表跟家電機器等所形成的資訊通信網絡。在目前許多企業打算就先透過網路蒐集使用電力的資訊,之後在提供新的附加服務。 這樣的動向不只是發生在電力公司,在瓦斯及自來水業界也正在發生。例如東京瓦斯公司將於2010年度起,開始實驗運作具有無限通訊功能的瓦斯表,快的話在2012年就會正式更換約1000萬台的瓦斯表。東京瓦斯公司還計畫在之後將用於瓦斯表上的通訊系統擴張到自來水表的抄表上。美國企業如IBM公司也積極投入自來水表的「智慧化」。 但是,在實際引進智慧電表時,美國發生了引進智慧電表的住戶的電費急速增加,產生了不少的訴訟,美國德州Oncor電力公司正面對這樣的訴訟,加州的PG&E公司的顧客也正聲請相關的訴訟。 專家們指出一些會影響電費增加的原因,其中就指出因為引進智慧電表使得「正確測量出電力使用量」這也是因為美國至今所使用的電表太過老舊,無法正確的測量出正確的電力使用量,以致用戶都在付出比實際使用量要少的電費。所以在引進智慧電表測量出正確的電力使用量之後,就產生出「電費增加」的錯覺。 現在美國的電力公司主要把智慧電表用於自動抄表上,這只是利用智慧電表的第一步。若在初始階段無法得到消費者的支持,之後要推廣則會更為困難。使用電力的相關資訊在某種意義上可視為是個人資料的其中一種。隱私權的問題等與消費者保護汲汲相關的議題陸續都會出現。 美國眾議員Edward Markey在眾議院提出了電力公司要將智慧電表所測量的電力使用資訊即時提供給消費者,並有保護該資訊隱私權義務化的法案。在技術面上,有關重視資訊安全的通訊型式的討論亦蓬勃發展起來。
新加坡國會通過支付服務法修正案,以降低洗錢及犯罪風險隨著新型態支付服務應用不斷推陳出新,利用數位支付型代幣(digital payment token)進行洗錢與犯罪愈加猖獗,新加坡國會(Parliament of Singapore)於2021年1月4日通過「支付服務法修正案」(Payment Services (Amendment) Bill),擴大監管範圍,以降低與數位支付型代幣有關的洗錢、資助恐怖主義(money laundering and terrorism financing, ML/TF)及隱匿非法資產風險。 本次修正重點包含(1)賦予新加坡金融管理局(Monetary Authority of Singapore, MAS)更大權責,可要求支付服務供應商落實相關客戶保護措施,例如要求數位支付型代幣服務供應商所保管之資產與自有資產分開存放,以確保客戶資產不受損失;(2)將虛擬資產服務供應商(virtual assets service providers)納入法規監管,擴大數位支付型代幣服務定義,使其包括代幣轉讓、代幣保管服務與代幣兌換服務;(3)擴大跨境匯兌服務(cross‑border money transfer service)定義,凡是與新加坡支付服務供應商進行資金轉移,不論資金是否流經新加坡,皆受新加坡金融管理局監管;(4)擴大國內匯款服務(domestic money transfer service)範圍,以涵蓋收付雙方均為金融機構之情形。 新加坡金融管理局表示,本次修法目的是為了因應支付服務產業的廣泛應用,降低潛在犯罪風險與維護金融安全,有效保護消費者權益,並維持金融穩定性與維護貨幣政策有效性。