在經歷1個多月、共50回合4G(含LTE與Wimax)頻譜拍賣後,英國Ofcom在2月20日宣布Everything Everywhere Ltd(EE)、 Hutchison 3G UK Ltd、 Niche Spectrum Ventures Ltd、 Telefónica UK Ltd (O2)與Vodafone Ltd五家公司取得頻譜執照。這次4G釋照拍賣收入比預期少10億英鎊,但也挹注英國政府23.4億英鎊,使財政得以紓緩。目前,英國民眾最晚於2017年,就可享有更快、更便宜與覆蓋性更佳的4G服務。 此次頻譜釋出共有250MHz取自於800MHz與2.6GHz。800MHz之得以釋出,來自於類比電視訊號關閉後,因頻譜重整所取得之「數位紅利」,並採取分頻多工(frequency division duplexing,FDD);至於,2.6GHz則依頻段不同,而分別採用分頻多工與分時多工(time division duplexing,TDD)。由於,800MHz擁有優良覆蓋性,是故,英國政府藉由800MHz特性,釋放一張2*10MHz之執照,並規定業者覆蓋義務,以達到英國發展行動網路之目標。目前,取得該執照的O2,最晚於2017年須提供98%人口於室內可取得行動寬頻服務、至少95%人口能於英國境內(英格蘭,北愛爾蘭,蘇格蘭和威爾士)取得4G服務。 在Ofcom採取組合價格鐘拍賣型式(combinatorial clock auction,CCA)下,目前,業者已完成頻譜標得區塊數目(Eg:EE於800MHz取得一張2*5MHz),待得標者完成配置(Assignment stage)頻段位址(Eg:EE頻段確定在800 MHz ~805 MHz),最快於2013年夏天,英國民眾可更普及的享有下述優點: 1.網速可達到100Mbp,超越現今3G五至十倍。 2.使用智慧型手機、平板觀看電視,雜訊、遲緩的問題將不復見。 3.使用高畫質視訊將更為輕鬆,並且,照片與影片上傳於社群網站將非常迅速。 4.偏遠地區可因4G的覆蓋性廣而具有網路服務。 OFCOM不僅促進4G市場競爭外,並在今(2013)年年底提供報告,告知消費者與企業4G服務發展現況、地理位址,與網路速度,讓使用者有能力作出最好的選擇。而在未來的發展上,許多研究單位估計2030年時,行動網路的傳輸需求將可能是現在80倍,英國亦開始探討釋出頻譜發展5G的可能性,以因應未來供不應求所導致的「容量危機」(capacity crunch )。
用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).
新加坡推出可退還投資抵減制度以維持國際競爭力新加坡以相對較低的稅率及多元稅務優惠措施,成為國際布局亞洲市場優先選擇國家之一。然而,組織成員國包含新加坡在內之經濟合作暨發展組織(Organisation for Economic Co-operation and Development, OECD)為促進全球經濟與投資,2019年提出稅基侵蝕與利潤移轉(Base Erosion and Profit Shifting, BEPS)計畫,其中包含全球最低稅制,以確保跨國企業在全球繳納至少15%有效稅率。該計畫規範年營收超過7.5億歐元的跨國企業,若在組織成員國繳納稅率低於15%,須補繳差額稅。新加坡標準稅率雖為17%,但透過多項稅務優惠,實際稅率可降至5-10%,因此OECD新制對新加坡影響重大。 為維持國際競爭力,新加坡在2024年推出可退還投資抵減(Refundable Investment Credit, RIC),以現金補助取代傳統稅收優惠,避免抵觸最低稅率規範。RIC適用於新加坡註冊公司或海外公司之分公司,針對RIC支持活動給予補助。RIC支持六類活動,包括新產能建設、數位與專業服務、總部或卓越中心設立、貿易公司擴展、研發創新及減碳方案,支出範圍涵蓋資本、人力、培訓、專業費用、無形資產、在地委外、材料及物流等。而其補助期間最長10年,最高可取得支持項目之支出50%,用於抵銷企業所得稅,剩餘RIC四年後可退還現金。 新加坡透過直接補助特定項目支出之部分比例,用於抵銷企業所得稅,既符合OECD要求,又能持續吸引國際投資。新加坡地緣與臺灣接近,為吸引海外投資之直接競爭關係,而新加坡在企業所得稅及稅務抵減方案都較臺灣優惠。若臺灣希望成為跨國企業首選,需密切關注新加坡政策變化,並提出更具吸引力的獎勵措施,方能增加國際投資意願。
歐盟發布新人工智慧規範,以風險程度判斷防止科技濫用歐盟執委會於2021年4月21日提出「人工智慧規則」(AI regulation)草案,成為第一個結合人工智慧法律架構及「歐盟人工智慧協調計畫」(Coordinated Plan on AI)的法律規範。規範主要係延續其2020年提出的「人工智慧白皮書」(White Paper on Artificial Intelligence)及「歐盟資料策略」(European Data Strategy),達到為避免人工智慧科技對人民基本權產生侵害,而提出此保護規範。 「人工智慧規則」也依原白皮書中所設的風險程度判斷法(risk-based approach)為標準,將科技運用依風險程度區分為:不可被接受風險(Unacceptable risk)、高風險(High-risk)、有限風險(Limited risk)及最小風險(Minimal risk)。 「不可被接受的風險」中全面禁止科技運用在任何違反歐盟價值及基本人權,或對歐盟人民有造成明顯隱私風險侵害上。如政府對人民進行「社會評分」制度或鼓勵兒童為危險行為的語音系統玩具等都屬於其範疇。 在「高風險」運用上,除了作為安全設備的系統及附件中所提出型態外,另將所有的「遠端生物辨識系統」(remote biometric identification systems)列入其中。規定原則上禁止執法機構於公眾場合使用相關的生物辨識系統,例外僅在有目的必要性時,才得使用,像尋找失蹤兒童、防止恐怖攻擊等。 而在為資料蒐集行為時,除對蒐集、分析行為有告知義務外,也應告知系統資料的準確性、安全性等,要求高度透明化(Transparency obligations)。不只是前述的不可被接受風險及高風險適用外,有限風險運用中的人工智慧聊天系統也需要在實際和系統互動前有充足的告知行為,以確保資料主體對資料蒐集及利用之情事有充足的認知。 在此新人工智慧規範中仍有許多部份需要加強與討論,但仍期望在2022年能發展到生效階段,以對人工智慧科技的應用多一層保障。