德國「智慧聯網倡議」

  德國聯邦經濟及能源部於2016年9月1日公布數位議程框架新的經費公告,以支持智慧聯網示範的實施與推廣。德國聯邦政府於2015年9月公布的智慧聯網(Initiative Intelligente Vernetzung)戰略,該戰略實施的4個面向如下:

  (1)應用領域的支持:聚焦教育、能源、衛生、交通和管理五大應用領域的數位化和智慧化運用及發展,並排除相關實施障礙; (2)促進合作:促進資通訊技術與五大應用領域間的跨領域溝通與合作; (3)改善框架條件:加強投資環境並消除相關障礙;保護隱私權及加強網路安全;制訂相關標準化作業;提升商品或服務市場競爭力; (4)加強各界參與:促進各界參與及討論,共創及共享經濟利益。德國聯邦政府基於該戰略計劃,提出智慧聯網倡議,及提供開放式創新平台,促進不同領域的合作及整合運用,將有助於產業價值及競爭力的提升,並提高國際間合作的機會。

  我國為發展智慧聯網相關產業,曾推出包括「智慧辨識服務推動計畫」、「智慧聯網商區整合示範推動計畫」等相關應用服務整合及解決方案計畫,今年更陸續推出「亞洲‧矽谷推動方案」、「數位國家‧創新經濟發展方案」,藉以提高數位生活服務使用普及率,並以創新驅動產業升級轉型。

本文為「經濟部產業技術司科技專案成果」

※ 德國「智慧聯網倡議」, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7660&no=0&tp=1 (最後瀏覽日:2026/01/01)
引註此篇文章
你可能還會想看
加州通過美國第一個限制溫室氣體排放法案

  加州是全球第十二大製造二氧化碳排放量的地區,也是美國最重視環境立法的一個州。今年八月底,加州通過全美第一個限制人為溫室效應氣體排放法案- 2006 年全球溫室效應對策法( Global Warming Solutions Act of 2006 ),希望透過該法在 2020 年以前,將溫室氣體排放量減至 1990 年的水準(約減少 25% ),而諸如發電廠、水泥工廠等溫室效應氣體最大的來源,則將被要求報告它們的排放量。   雖然全球溫室效應對策法中並未規定特別的機制(例如歐盟所採取的排放量交易機制)以達到前述目標,不過加州政府仍希望藉由其率先立法的舉動,能引起全美各地效法,進而「由下而上」( bottom-up )促使聯邦政府採取必要措施。   目前美國聯邦政府以強制減少溫室氣體排放可能損及經濟,並不應將開發中國家排除在外為由,在 2001 年決定退出有 160 國簽署的京都議定書。不過隨著加州通過 2006 年全球溫室效應對策法,加入歐盟置身於對抗氣候變化的最前線,毋寧也將對華府增加壓力,未來聯邦政府仍須審慎考量是否以強制之立法手段,而非布希政府所偏好的自願性手段,來解決全球暖化的問題。

Groupon與LivingSocial面臨關於團購券有效期限的團體訴訟

  Groupon日前遭消費者集體訴訟,控告其團購券之有效期限違反消費者保護相關法律。原告消費者主張Groupon違反聯邦信用卡責任公開法案,該法案限制禮券之到期日不得少於出售後五年內。對於原告消費者之主張,Groupon提出抗辯,並申請和解。而另一團購網站LivingSocial也面臨類似的訴訟案件,並且同意支付450萬美元和解金以解決關於團購券有效期限之爭議。在以上兩個案例中,核心問題均涉及,Groupon與LivingSocial所提供之票券是否適用於聯邦和各州法律中關於禮券之規定;換言之,爭議在於,聯邦法律規定禮券到期日不得短於五年,而此規定是否適用於團購網站所提供之票券,目前尚有疑義。就團購券有效期限的現狀而言,團購禮券上通常會標示兩個有效日期,其一為支付價格(市價),另一個是推廣價格(促銷價),前者係指消費者在此交易中原本所應支出之費用,後者則指折扣價格。舉例而言,消費者購買25美元的團購券後,得前往義式餐廳享有價值50美元的餐點,而若是團購券折扣到期後,消費者仍得以團購券換取市價25美元的餐點,但無折扣。

聯邦選委會研議規制網路選舉活動

  日前(美國時間 3 月 24 日 ),美國聯邦選舉委員會( the Federal Election Commission; FEC )就擴張聯邦選舉法令適用範圍及於網際網路一事,提出最新版本草案。   草案認為,諸如網頁之橫幅廣告或搜尋網站贊助商之廣告連結等,須支付對價始能刊登之網路廣告,應與利用其他種類媒體刊登或播送之廣告接受相同處遇。此外,於網誌(部落格)支持特定候選人或發表政治性質言論者,則應與吾人向來使用之傳統媒體享有同等言論自由。最後,收件人數 500 以下之電子郵件,性質並非付費廣告之影音宣傳品,選民自發進行之線上宣傳活動等,均應排除於法令規制範圍之外。   去年該委員會即曾就此議題提出規制較為嚴格的版本,而遭部分網誌作家及國會議員強烈批判;其後委員會之法律專家就此重加研議,明確釐清適用範圍,改採較為寬鬆之規制取向。雖然目前之版本尚難謂完全明確,不過言論自由人士對於目前發展仍表樂觀其成。

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).

TOP