電信業者提供視訊服務之外國法制研析

刊登期別
第20卷 第9期,2008年09月
 
隸屬計畫成果
經濟部技術處科專資通訊法制研究計畫成果
 

※ 電信業者提供視訊服務之外國法制研析, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=3208&no=0&tp=1 (最後瀏覽日:2026/01/30)
引註此篇文章
你可能還會想看
日本立法保護及促進重要經濟安全資訊之利用

日本國會2024年5月10日通過、同月17日公布《重要經濟安全資訊保護及活用法》(重要経済安保情報の保護及び活用に関する法律,以下簡稱經安資訊保護法),建立安全許可(セキュリティ・クリアランス)制度,規範政府指定重要經濟安全資訊(以下簡稱經安資訊)、向業者提供經安資訊之方式,以及可近用經安資訊之人員資格等事項,以保護與重要經濟基礎設施有關,外流可能影響國家及國民安全之重要資訊,並同時促進此類資訊之利用。 根據經安資訊保護法規定,行政機關首長得指定機關業務相關之重要資訊,如與關鍵基礎設施、關鍵原物料相關,外洩可能影響經濟安全之資訊為經安資訊。並得於下列情形,向其他行政機關、立法機關及司法機關、特定民間業者提供經安資訊: 1.其他行政機關:有利用經安資訊之必要時。 2.立法機關及司法機關:提供資訊對經濟安全不會有顯著影響時。 3.特定民間業者:為促進有助於經濟安全保障之行為,必要時得依契約向符合保安基準之業者提供經安資訊。 此外,經安資訊保護法進一步規定近用、處理經安資訊者,須通過適格性評價(適性評価),評價重點包括當事人犯罪紀錄、藥物濫用紀錄、有無精神疾病、有無酗酒、信用狀況等。由於上述內容涉及當事人隱私,故行政機關進行適格性評價前,須取得當事人同意。

國際能源總署發布「擴大轉型金融」報告,旨在說明如何透過金融機制協助高碳排部門邁向淨零

國際能源總署(International Energy Agency, IEA)於2025年10月16日發布「擴大轉型金融」(Scaling Up Transition Finance)研究報告,提出轉型金融應與綠色金融作為能源轉型的互補工具,並進一步分析轉型金融的前景與推動建議。 轉型金融是指有助於減排的金融活動,特別適用於難以減排的產業及資金需求高、但綠色金融支持有限的新興市場及發展中經濟體。報告重點分析轉型金融三大領域,並說明各產業投資方向即可量化的減碳目標,重點如下: (1)重工業:鋼鐵及水泥業合計約占全球能源燃燒與製程排放之14%,主流投資仍集中於傳統高碳排製程,導入轉型金融,除可支援中短期減碳措施外,亦能鼓勵企業於設施設計階段預留導入低碳技術之條件(即具「可改造性」,retrofit-ready),避免產生「高碳資產鎖定」與「無法回收之投資風險」。IEA建議,應結合國家層級減碳指標與產業路徑,將轉型金融納入減碳政策框架,並鼓勵金融機構明確區分綠色金融與轉型金融投資組合。 (2)關鍵原物料:原料開採與冶煉雖屬能源轉型必要條件,但亦產生排放量高、高耗水量、土地劣化與生物多樣性流失、及社會與治理風險。轉型金融則可支持低排放技術、改善ESG表現,並促進高影響力投資。IEA建議,應建立礦業轉型金融標準與績效指標;政府與多邊開發銀行應提供保證或融資機制;加強資料透明與監測機制;統籌國際供應鏈治理與稅收誘因。 (3)天然氣:IEA強調,轉型金融可協助天然氣產業減排改造,並推動替代性低碳氣體基礎建設發展,但不得成為長期依賴化石燃料之藉口,因此應用優先順序應為甲烷減量、液化天然氣減排、低排放氣體基礎設施、電力系統調節角色。且必須符合透明性、時限性及一致性等條件。其目的在於支援能源轉型初期之電力穩定與彈性,並為未來低碳氣體基礎設施鋪路。 轉型金融強調企業與金融機構的實質合作,當前挑戰在於擴大資金流與明確界定「轉型」特質。IEA建議,推動轉型金融須兼顧新興市場與中小企業參與,並強化產業別績效指標、改造潛力設計及定期審查。此外,轉型金融應提升為全球減碳融資之第二支柱,藉此面對難以減排之領域,並確保投資帶來實質減碳與能源安全等效益。

義大利發布最新全國性AI法案,預計設立醫療AI用平臺,並強化權利保護與病患福利

壹、義大利最新AI法案簡介 義大利於2025年9月17日通過《人工智慧規範與政府授權》立法法案(Disposizioni e delega al Governo in materia di intelligenza artificiale,下稱1146‑B法案),為該國首次針對AI全面立法,亦為歐盟成員國內AI專法先驅。義大利將歐盟《人工智慧法》(AI Act,下稱AIA)框架轉化為國內法,並設立獨立窗口與歐盟對接。為確保落地效率並兼顧國家安全與資料治理,本法採「雙主管機關制」,由隸屬於總理府(Presidenza del Consiglio dei Ministri)之數位局(Agenzia per l’Italia Digitale,AgID)及國家網路安全局(Agenzia per la Cybersicurezza Nazionale,ACN)共同執行。AgID 負責AI技術標準、互通性與公共行政實務執行;ACN則負責資安韌性、事故通報與高風險AI安全性。 目前該法案已由參議院(Senato della Repubblica)審議並表決通過,2025年9月25日已載於義大利《官方公報》(Gazzetta Ufficiale),再經過15天緩衝期後,預計於2025年10月10日正式生效。然截至2025年10月27日為止,未有官方宣布該法案正式生效之證明,故法案是否依該版本內容正式施行仍待確認。其中醫療為AIA顯示之高風險領域之一,亦涉及資料隱私與病患權益等敏感法益,可謂本法落地機制中具代表性之政策面向,故本文特以醫療AI應用為分析重點。 貳、設立醫療AI應用平臺,輔助專業醫護及強化醫療服務取得 1146‑B法案第10條規定,將由義大利衛生服務局(Agenzia nazionale per i servizi sanitari regionali,AGENAS)主導設立該國家醫療AI應用平臺。該平臺定位為全國級資料治理與AI導入審查機制工具,主要功能為對醫療專業人員提供照護病患與臨床實踐時無法律約束力之建議,並對病患提供接觸社區醫療中心AI服務之管道與機會。該平臺僅得依「資料最小化原則」(dati strettamente necessary)蒐集以上醫療服務所需之必要資料,經向衛生部(Ministero della salute)、資料保護局(Garante per la protezione dei dati personali)及CAN徵詢意見後,由 AGENAS 負責資料處理,並經地方常設協調會議同意後,得以公告方式制定符合歐盟《一般資料法規》(General Data Protection Regulation,GDPR)之風險控管與敏感健康資料處理細則。 在確保資料安全合規後,法案強調對醫療保健之服務可及性(accesso ai servizi)進行改善,病人能透過此平臺更便利地接觸到社區醫療中心所提供之各類AI健康醫療服務,如診斷輔助、數位健康檔案調閱等,亦符合AIA強調AI發展應確保社會公益等權利之宗旨。 參、醫療用AI之限制與目標 法案第7條第5項規定AI僅能作為醫療決策輔助工具提供無拘束力之建議,重申前述醫療平臺相關規定;AI亦不得根據歧視性標準選擇或限制病人獲取醫療服務。病人享有「知情權」(diritto di essere informato),即有權知悉診療過程中是否使用有使用AI、使用方式(如僅為輔助)及其限制。針對健康資料之隱私處理方面,如病歷、基因資料、診斷紀錄等,要求醫用AI系統須持續監測、定期驗證與更新,以降低錯誤風險,維護病人健康安全,亦明文強調醫療AI之使用應以改善身心障礙者生活為目標。 四、總結 1146-B法案在醫療 AI 治理上,透過雙主管機關制平衡歐盟對接、技術發展與風險控管,符合AIA要求並避免權責衝突。建立由 AGENAS 主導的醫療 AI 應用平臺,在相關部門意見下運作,確保資料處理與服務推動合規與安全。病人權利方面,強調知情權、健康資料隱私與地方醫療AI普及,符合資料最小化與 GDPR 規範,展現義大利在醫療 AI 上兼顧創新、透明與權益保障之立場,往後應持續關注AGENAS釋出之關於該平臺使用之相關細則。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).

TOP