歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。
該指引並進一步指出人工智慧應遵守以下四項倫理原則:
(1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。
(2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。
(3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。
(4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。
本文為「經濟部產業技術司科技專案成果」
三星電子十六日表示,目前大舉開發色弱者使用的顯示器等新概念顯示器,可令色弱者與正常人一樣享受多媒体功能、增加了色彩保真功能(Magic Vision)的產品「SyncMaster 730C」和「SyncMaster 930C」。 Magic Vision具有將顯示器的紅、綠、青三原色分別分類為十個等級的功能,由此使用者可依照最適合自己的色彩敏感度來調節顯示器的色彩。 三星電子還計劃近期推出具有1500:1的明暗比、6ms(千分之一秒)響應速度、符合人體工學的三重鉸鏈(3-Hinge)底座的顯示器「SyncMaster750P」和具有世界最快響應速度—4ms的顯示器「SyncMaster 930B」。 三星電子強調,明暗比和響應速度的性能大幅提升,將可能終結「液晶顯示器不適合遊戲及動態視頻」這一爭議。
SONY ERICSSON最新公開之專利申請案-多模式震動定位觸控式螢幕關於SONY ERICSSON (SE)將推出PSP手機(PSP phone)的傳聞始終甚囂塵上,每隔一段時間就會有各種充滿想像力的照片在網路上散佈。美國專利商標局(USPTO)於2008年03月06日公開了SE於2006年08月30日所遞交的新專利申請案。從該申請案的內容中可發現,SE將為市場帶來具有更多新奇功能的PSP手機。 SE的該申請案揭露了一種可攜式行動通訊裝置,其包含全觸控式顯示螢幕、加速度感測器或其他方向感測器以及觸覺回饋(haptics feedback)配備,其可透過軟體分別在PSP以及手機模式下設定以及切換多種功能。特別地,由於該螢幕具有觸覺回饋機制,原本提供觸覺回饋的實體按鍵便可以被省去,因此在實務上,該螢幕可佈滿該通訊裝置的整個表面。 當然,在我們談到前述的加速度感測器、全觸控式顯示螢幕以及透過軟體設定功能的同時,SE並未在該專利申請案中限制該通訊裝置只能為PSP手機。因此,該通訊裝置也可能被設定為隨身聽手機、照相手機或行動網路瀏覽器等。 在這篇專利申請案中的構想與蘋果的iPhone相當類似,除了額外的PSP遊戲功能之外。但,我們不能就此認為SE抄襲蘋果的創意,因為,SE似乎是與蘋果同時發展這個構想的-這篇申請案的申請日期比iPhone的主要專利申請案的公開日期早了一週。
全方位提升生技製藥能力,德國提出生技製藥領域的價值創造補助新政策在製藥領域運用生物技術的方法來研發新藥與新醫療診斷方法,已有越來越重要的趨勢,且將成為未來醫療照顧的主流,因此各國政府均積極透過各種政策工具,企圖搶食此塊經濟利益的大餅,不過直到目前為止,推動生技製藥最為成功的國家,仍集中在少數幾個研發大國。一直以來,德國在製藥領域也是居有舉足輕重的科技領先地位,不過在涉及生技製藥這一塊,德國目前的成就有限,已成功上市而來源於德國的生技藥品,並不多見(2005年德國核准通過的140項新有效成分中,僅有6項由德國公司所研發)。另一方面,德國擁有全歐洲最多的生技公司數目,這些生技公司每年從事相當多的研發活動,但其與製藥公司卻甚少主動合作。為加強生技產業與製藥產業的連結與合作,德國聯邦教育與研究部(Bundesministerium für Bildung und Forschung, BMBF)新近提出了新補助政策-「生技製藥之策略性競爭」(Strategiewettbewerb BioPharma),企圖為德國重新贏回世界藥局(Apotheke der Welt)的美名。 這個新的策略規劃所訴求的對象,是由主要來自於學術界的生技公司與傳統的製藥產業界所成立的合作團隊,而以企業型態經營者(Unternehmerisch geführte Konsortien aus Wissenschaft und Wirtschaft )。BMBF希望透過鼓勵建立這樣的合作關係,讓這些合作參與者提出各種有助於以更有效率的方法研發醫藥品的新策略性概念或創意(Ideen für neuartige strategische Konzepte vorzulegen, die die Entwicklung von Medikamenten effizienter machen),以填補生技製藥產業價值創造鏈中的漏洞。所謂的價值創造鏈,指從實驗室的研究、醫院的投入、到醫藥品的製造、甚至是最後端的藥局等各生技製藥研發乃至製造使用所不可缺的各重要環節。 由德國的這項新補助政策可以看出,在生技製藥領域,德國政府的補助方向已不再侷限於傳統的技術能力的提升,反而是如何串連整個產業鏈以發揮價值創造的最大效益,為此一補助新政策的最大特色。由於補助的目的是在實現價值創造,因此補助去進行價值開發與規劃的醫藥技術項目,也沒有特別限定,反而是希望可以涵蓋所有可能的醫藥技術領域,因此包括抗癌藥物與治療神經系統方面疾病的藥物研發、開發新的疫苗或疾病診斷用的生物標記、以及如何建構臨床研究的新基礎架構(der Aufbau neuartiger Infrastrukturen für klinische Studien)等,均屬BMBF徵求創意的範圍。 經BMBF邀集由國際專家組成的評選委員會評選通過的創意,將可在未來五年獲得BMBF的經費持續協助。BMBF預計選出五個產學合作聯盟,投入總計一億歐元的經費支持,預計在今(2008)年秋天,將可順利選出五個補助的對象。BMBM的此項新補助政策受到生技製藥產業界的廣大迴響,成功引導德國生技產業與製藥產業構思各種可能的合作模式。BMBF表示,其在選擇適格的合作聯盟作為補助對象時,最重要的考量標準為合作夥伴的個別經歷介紹、其有無執行能力、是否具備執行所需的基礎環境條件、所提出的合作概念是否足以使其具備國際競爭優勢,以及所規劃的醫療技術發展是否具有創新性、原創性與市場潛力。
用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).