何謂物聯網(Internet of Things, IOT)?

  物聯網是指明確可辨識的實體物件與虛擬的類網路代理架構的聯結。它是由馬克.維瑟於1991年所提出,指的是(個人)電腦作為機具設備的形式未來將逐漸消失,而替換為"智慧元件"的形式。當前人們關注的對象已經不再是物體本身,而是人們的各種活動中的物物相連。其在不知不覺中已經提供人們各式各樣的輔助,例如小型化的嵌入式電腦毋需操作,就可以提供各式各樣的輔助。這種微型的電腦,即所謂的穿戴式裝置,可以最大程度地結合不同感應器直接在服裝上出現。

  數位化在多個層面正在改變我們的生活和工作方式。現代資訊技術幾乎使任何對象無論是家庭日常物品或工廠內的機器,都能用最小的空間達到強大的計算能力(所謂的“嵌入式系統”)。烤麵包機,洗衣機和機床都可由軟體控制,並可以透過網際網路相互、或與外部世界聯結。

  物聯網在居家領域具體將以智慧住宅(Smart Home)形式呈現。運用智慧聯網技術將能獲得更多的舒適性和安全性、節約能源或提供適合各年領階層的生活與和起居。現有的解決方案可以透過智慧型手機遠端控制進行空調、電爐和燈具的使用。未來,洗衣機甚至可以自動尋找最優惠的電價決定洗衣服的最佳時間。

  智慧家居若要成功,需得到消費者的接受。故物聯網解決方案必須具有可信賴性(資料保護、資訊安全)、能夠持久並可靠地運作,並能夠在未來繼續穩定地投入智慧家庭的行列。對於製造商和供應商而言,應該以在新的立場和視角來開拓一個新的市場。

本文為「經濟部產業技術司科技專案成果」

※ 何謂物聯網(Internet of Things, IOT)?, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7292&no=57&tp=5 (最後瀏覽日:2026/04/01)
引註此篇文章
你可能還會想看
歐盟法院判決釐清GDPR民事賠償不受損害最低程度限制

歐盟法院(Court of Justice of the European Union, CJEU)於2023年12月14日對Gemeinde Ummendorf(C‑456/22)案作出判決。歐盟法院試圖釐清《歐盟一般個人資料保護規則》(General Data Protection Regulation, GDPR)第82條的民事求償規範中,資料主體受到非財產上的損害要到何種程度才可獲得賠償。 本案源自於兩位自然人原告與德國的烏門多夫市政府(Municipality of Ummendorf)之間的紛爭。2020年,烏門多夫市政府未經兩位原告同意情況下,在網路上公布市議會議程與行政法院判決,這些資訊內容均多次提及兩位原告的姓名與地址。兩位原告認為市政府故意違反GDPR,因此依據GDPR第82條請求市政府賠償,並進一步主張該條意義下的非財產損害,不需要任何損害賠償門檻。然而,市政府則持相反意見。 長久以來,德國法院傾向認為,GDPR的非財產上損害需要超過某個「最低損害門檻」才可獲得賠償。然而,承審法院決定暫停訴訟程序,並將是否應有「最低損害門檻」以及其基準為何的問題,提交給歐盟法院進行先訴裁定。 歐盟法院考慮到,GDPR的宗旨在於確保在歐盟境內處理個人資料時對自然人提供一致和高水準的保護,如要求損害必須達到一定的嚴重性閾值或門檻才可賠償,恐因為成員國法院認定的基準不同,進而破壞各國實踐GDPR 的一致性。因此,歐盟法院最後澄清,GDPR的民事賠償不需要「最低損害門檻」,只要資料主體能證明受有損害,不論這個損害有多輕微,都應獲得賠償。

由AOL LLC and PLATFORM-A, INC. v. ADVERTISE.COM, INC. 案看網域名稱與商標名稱爭議

  2009年10月19日,美國線上公司AOL LLC and Platform-A, Inc. (American Online, 簡稱AOL)再次於美國聯邦加州中區地方法院 (US California Central Federal District Court)向一家提供美國線上行銷廣告的公司- ADVERTISE.COM公司,提出商標侵權訴訟。     本案原告- AOL早於2009年8月17日即向美國東維吉尼亞地方法院提出商標侵權訴訟,主張ADVERTISE.COM公司所使用advertise.com之網域名稱,除侵害AOL已註冊的Advertising.com,包含通用文字- advertising.com及設計過A之圖形,及申請中的AD.COM商標權外,也違反了不公平競爭法及維吉尼亞商事法。唯,10月初,東維吉尼亞地方法院法官提出有利於ADVERTISE.COM公司之意見,認為AOL企圖以其所註冊之商標- (A)dvertising.com,來阻止其他競爭公司在網路世界使用任何有關advertise文字的作法,係壟斷網路上所有線上廣告行銷市場;故,AOL被迫於10月將本件訴訟案轉向美國聯邦加州中區地方法院提出。     目前尚無對本案的意見,將待本案之後續發展,才能暸解商標權人所註冊的圖形商標中,若包含經設計的圖案及通用的文字時,是否就取得圖形當中通用文字的專用權,並可向其他競爭者主張,任何使用所註冊的商標的一部分,包含網域名稱中的文字,也是商標侵害的一種型態;如此,可能將導致擴張商標權的保障範圍。

eBay銷售TIFFANY & Co.仿冒品恐構成錯誤虛假廣告

  由於仿冒業者在知名的網路拍賣平台eBay上販售標有” TIFFANY & Co”的商品,eBay於2004年起被珠寶商TIFFANY & Co.(以下簡稱TIFFANY)控告侵犯商標權,且該廣告構成錯誤虛假廣告(False advertising)。位於紐約的第二上訴巡迴法院於今年4月1日作出判決,認為eBay不構成商標權的侵害,但可能該當錯誤虛假廣告之行為。   關於是否構成侵害商標權之判斷,考量eBay本身為網路拍賣平台提供者,並非實際將商品上架之人,並且年花數百萬美元處理平台上的銷售仿冒品行為,故第二上訴巡迴法院認定eBay並未侵害TIFFANY的商標權。   這個判決結果對於類似eBay的網路平台業者而言,無非是個喜訊,但在是否構成錯誤虛偽廣告,上訴法院作出與第一審法院不同之見解。   在此案件中,第一審法院認為該廣告頁面文字並不會使消費者產生誤認之虞,但第二上訴巡迴法院則持相反見解,認為除非eBay在網頁上註明警告字句,提醒消費者賣家所售商品可能是仿冒品,eBay才有可能免除責任,否則,eBay應該對其平台上出現可能導致消費者混淆誤認的文字負責。由於TIFFANY在判決後宣稱要上訴,因此該錯誤虛假廣告認定之爭議,仍有待最高法院之判斷。   不過,第二上訴巡迴法院亦在判決中強調,eBay已善盡相當的努力來打擊仿冒品。每年花費將近兩千萬美元防止網站上詐欺,並且設立買家保護機制,更要求員工應特別關注反侵權方面的議題。eBay隨後發表聲明,認為此判決結果對於打擊仿冒品將有莫大助益,而其將繼續以合作代替訴訟。

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).

TOP