美國柏克萊﹙Berkley﹚市議會日前無異議通過既有有害物質法令修正之決議,企圖涵蓋奈米物質之情形,此其為奈米科技地方性立法之首例。此項行動迫使研究人員及製造人必須於研究或生產過程中,申報所使用的奈米材料,以及提出有效管理奈米物質的證明。
在商業世界當中,奈米科技的目標是在原子或分子層次,藉由改變或創造新的成份,以發展出新的產品及材料。不過,這些材料是否會產生環境及健康方面的問題,目前尚不得而知。
此項修正已蘊釀兩年。市府官員表示,此項法規修正主要在於監管奈米新創事業﹙startups﹚或小型企業﹙small business﹚,而非國家型實驗室﹙the national lab﹚所造成的影響,因為後者目前係由美國能源部﹙Department of Energy﹚所管理,地方法規對其並無管理權限。一開始,國家實驗室相當反對柏克萊市的這項計畫;不過,經過溝通其表示未來將繼續支持該市市府的行動。
負責柏克萊市有害物質管理事務的Nabil Al-Hadithy表示,他期許這項新法成為其他城市有效管理奈米物質的榜樣,並希望其他城市能夠將這樣類型的規範,有效運用在全加州的健康及安全法規上。
本文為「經濟部產業技術司科技專案成果」
美國聯邦法院最近判決美國聯邦官員在 2001 年及 2003 年,允許四家企業在夏威夷種植基改作物以生產試驗用藥的行為,違反環境法規。該許可內容涉及許可在夏威夷州 Kauai, Maui, Molokai and Oahu 種植玉米或甘蔗。 本案法官 Michael Seabright 判決中特別指出,鑑於夏威夷州乃是許多瀕臨絕種或受到絕種威脅的生物的棲地-該州計有 329 種罕見生物,占全美瀕臨絕種生物及受到絕種威脅生物種類之四分之一,而美國農業部動植物健康檢疫服務( Department of Agriculture's Animal and Plant Health Inspection Service )在許可種植基改作物前,竟未先進行初步的環境檢視( preliminary environmental reviews ),很明顯地已違反該機關依據瀕臨絕種生物法( Endangered Species Act )及國家環境政策法( National Environmental Policy Act )所應盡之義務。 本案原告 EarthJustice 認為,本案是第一件聯法院就 biofarming 所做之判決。所謂 biopharming 係指研究人員利用基改技術將植物用來作為生產藥品、抗體、疫苗等生技藥物的生物反應器( bioreactors )。由於植物可以大量栽種,因而若 biopharming 技術可行,將可有效解決生技藥物供給短缺的問題,嘉惠更多的病患,因而, biopharming 被視為未來可能顛覆傳統的藥物生產的一種生技藥物製造方式。目前, biopharming 廣泛使用的植物包括玉米、煙草等。 biopharming 的構想可以較低的成本解決部分生技藥物生產的問題,但其構想看似極具吸引力,不過發展 biopharming 並非毫無挑戰,尤其是如何就藥用基改植物予以隔離管理,避免基因污染。反對者一般主張,藥用基改植物 並未通過食用安全性測試,並不適合人體食用或是當作家畜飼料, 如果栽種藥用基改植物的隔離管理未做好把關,難保這些本應受到嚴格管制的治療性植物進入到食物供應鏈,影響民眾的身體安全。 在民眾健康及環境生態安全的考量下,反對推展 Biopharming 的力量也越來越大,本案即是一個明顯的例子。
歐洲資料保護監督官12月7日發表正式意見,針對歐盟執委會就AFSJ大型資訊技術系統設立作業管理機構之立法計畫,提出隱私保護法律要求歐洲資料保護監督官(European Data Protection Supervisor, EDPS)於2009年12月7日,針對歐盟執委會(European Commission)近年所提出關於設立歐盟「自由、安全及司法領域」(area of freedom, security and justice, AFSJ)大型資訊技術系統(IT System)作業管理機構之立法計畫,基於個人資料保護之立場提出正式法律意見。如此一立法計畫順利通過,該機構預計將擔負起包括「申根資訊系統」(Schengen Information System, SIS II)、「簽證資訊系統」(Visa Information System, VIS)、「歐洲指紋系統」(European Dactylographic System, Eurodac)及其他歐盟層級之大規模資訊技術系統之作業管理(operational management)任務。 根據EDPS首長Peter Hustinx表示,由於前述各項系統之資料庫中均包含諸如護照內容、簽證及指紋等大量敏感個人資料,因此儘管設立單一之作業管理機構,可以在相當程度上釐清歐盟各部門職責歸屬及準據法適用之問題,但如此一機構欲取得合法性,其活動範圍及相關責任即必須在立法中獲得明確界定,否則即可能產生個人資料濫用(misuse of personal data)及資料庫「功能潛變」(function creep)之風險。而基於此一分析,Hustinx認為目前執委會之機構立法計畫尚未符合個人資料保護要求。 此外,針對後續立法進程,EDPS建議除應確實釐清該管理機構之活動範圍是否包括整體AFSJ,亦或僅限於邊境檢查及難民與移民事務;執委會與該機構之關聯性與責任等重要問題外,是否可在缺乏相關經驗及實證評估下,即直接將所有歐盟層級之大型資訊技術系統與資料庫歸入該機構管轄,顯然亦有商榷餘地。EDPS就此認為,透過立法界定「大型資訊系統」之範圍,並且採取資料庫分次進入該管理機構責任範圍之方式,應係日後執委會可以努力之方向。
美國農業部公布施行現代化肉禽屠宰檢驗規定修正條文美國農業部(United States Department of Agriculture, USDA)於今年2014年8月就現代化肉禽屠宰檢驗規定(Modernization of Poultry Slaughter Inspection)再新增肉禽屠宰相關行政管制規範,稱為新肉禽檢驗系統(New Poultry Inspection System, NPIS),藉此改進現行的肉禽檢驗系統(poultry inspection system)。該規定係美國於1957年為補充艾森豪總統簽署之肉禽產品檢驗法(Poultry Products Inspection Act of 1957)所制定,為美國國內現行肉禽檢驗系統之法源依據,由隸屬於USDA的食品安全檢驗服務(Food Safety and Inspection Service, FSIS)負責執行該規定所要求之相關肉禽食品安全稽查。但近年來各國陸續發生重大食安問題,加以該規定自1957年後,已制定60年之久,實有許多應檢討修正之處。適逢美國總統發布執行命令13563號(E.O. no.13563)要求各行政機關檢視並改進相關規範,以減輕肉禽產品遭受微生物汙染之風險,並整合政府相關行政資源提升行政檢驗效能及適時移除現行法規造成產業創新的制度性障礙。而該規範之新肉禽檢驗系統(new poultry inspection system, NPIS)目前僅適用於幼小雞隻的肉品和火雞肉之生產,且不會全面汰換掉現行的各項檢驗系統,由廠商進行成本效益分析是否將該新檢驗系統導入生產體系。新規定簡要介紹包括要求於冷凍程序前後需進行含菌量檢驗,且廠商必須發展、建立、維護此一管理作業流程,以確保肉品未受到汙染;此外,亦增訂其他規定,如限制生產線上每分鐘不得屠宰超過140隻肉禽、移除冷藏溫度之相關標準,改採廠商必須藉由實驗和技術支援等,反覆檢驗以實質判定其冷藏管理程序中實際合理之冷藏溫度,FSIS更重新定義規範中關於冷藏之定義,以符合產業現況。新規定目前已公告於聯邦公報(Federal Register),將於六個月後正式生效。
用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).