法國法院裁定亞馬遜網路書店(Amazom.com)停止書籍免運費之活動

  法國書商聯盟(Syndicat de la librairie française),於2004年一月對美國知名電子商務業者-「亞馬遜網路書店」(Amazon.com)所提出之違法書籍折扣及低於售價的訴訟,法國法院於今年十二月初做出裁定。該法院命令Amazon.com應於收到判決十天內對於所售出之書籍開始收取運費,否則必須受到每天一千歐元的罰款至該公司停止該不收取運費之行為止。同時該判決亦命令,Amazon.com應支付給原告書商聯盟十萬歐元的損害賠償金。

 

  法國政府對於零售價格之法律規定十分嚴格,尤其對於書籍的零售。在法國,商家利用「價格犧牲」(Loss-Leaders)的促銷方式或其他低於產品價格的方式吸引顧客係為違法之行為;因此該國法律規定,關於書籍的零售商依法必須不得以低於出版商建議售價百分之五的價格出售書籍。Amazon.com所提供之折扣已經超過法國法律所規定之上限,故法國書商聯盟為保障其會員之權益,特別對該網站提出訴訟,以保護獨立小型書店之營運。Amazon.com尚未對上開判決發表正式的官方意見。

相關連結
※ 法國法院裁定亞馬遜網路書店(Amazom.com)停止書籍免運費之活動, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=2697&no=67&tp=1 (最後瀏覽日:2026/03/05)
引註此篇文章
你可能還會想看
Airbnb針對紐約新短期租賃法規進行訴訟

  紐約市政府於2018年8月通過「短期租賃規則」(Regulation of Short-term Residential Rentals)。該規則將於通過後180天生效適用,強制要求平台業者必須定期提供下列數據報告給紐約市政府: 在交易中住房的地址,須包括街道名稱、公寓或單位號碼、鄉鎮及郵遞區號。 短租房東的地址、電話及email、網頁地址、姓名及該平台的房東數量。 廣告的個別名稱及網頁地址。 關於短期租賃的說明:註明出租的是整間公寓還是單一房間。 該建築透過訂房網站提供短期租賃之天數。 短期租賃的所有費用。 若該平台代收租金費用,則需提供費用明細。   若相關平台業者未提交報告,則須面臨1,500美元以下之罰鍰。目前紐約市是Airbnb在美國最大的市場,該項規則的通過及生效勢必會對Airbnb造成相當大的影響及成本負擔。因此Airbnb在該規則通過後不久,旋即向法院提起訴訟,聲稱該規範違反了平台用戶之隱私權及美國憲法第一及第四修正案所保障之權利。   紐約市政府方面則作出回應,這項規則可協助政府取得保護住房安全所需的關鍵資訊,並保證遊客及租賃者之安全,同時並打擊非法的短期出租。而該規則也顯示紐約政府對於短期日租套房之服務將趨向保守的態度。

歐盟執委會提出人工智慧創新計畫,促進歐盟人工智慧技術應用與相關企業發展

2024年1月24日,歐盟執委會(European Commission)推出了人工智慧創新計畫(AI innovation package),支持新創公司和中小企業開發符合歐盟價值觀的人工智慧。該計畫包含以下重要事項: 1.推動歐洲高效能運算聯盟相關之法規修正案(An amendment of the EuroHPC Regulation)。 (1)歐洲高效能運算聯盟是歐盟在2018年依法(Council Regulation (EU) 2021/1173)建立之組織。依該法內容,組織主要目標是在歐盟開發、部署具有極高運算能力的運算系統,為公部門和私人提供強大的運算和資料服務,以支持科學和工業的雙重轉型。 (2)本次法規修正案為歐洲高效能運算聯盟添加了新目標,新目標為建立人工智慧工廠,以促進歐盟對人工智慧的採用和創新。目標細節包含令歐盟取得、推廣人工智慧專用的超級電腦,建立一站式服務以支持歐盟各界開發人工智慧服務、產品及應用程式等。 2.在歐盟執委會下設立人工智慧辦公室,制定歐洲層級的人工智慧政策,並監督政策執行。 3.透過跨國論壇推動以下工作: (1)藉歐洲地平線計畫、數位歐洲計畫,向試圖開發、應用人工智慧的組織提供財政支援。預估將在2027年帶來四十億歐元投資額。 (2)過教育擴張人工智慧人才庫。 (3)鼓勵政府及民眾投資人工智慧新創企業。 (4)加速開發歐洲共同資料空間,供人工智慧社群使用。 (5)支持工業生態系統及公共部門應用人工智慧。應用領域包含機器人、健康、生物技術、製造、行動設備等。 4.歐盟執委會與部分成員國組織了兩個歐洲數位基礎設施聯盟如下: (1)語言科技聯盟(ALT-EDIC): 該聯盟主要工作之一為收集、開發歐洲各國語言模型,供公共部門、企業及未來人工智慧創新計畫使用。聯盟目標為增加歐洲語言資料可用性、維護歐洲語言及文化的多樣性。 (2)城市宇宙聯盟(CitiVERSE EDIC): 主要目標之一是支援城市利用人工智慧,優化各項管理流程。例如交通管理方面,可利用人工智慧模擬空氣品質變化對城市交通狀況的影響,以利政府提出相應解決方案。 目前人工智慧創新計畫的下一步,是先推動歐洲高效能運算聯盟相關之法規修正案。嗣後,透過執行該計畫各項內容,執委會將為歐盟人工智慧政策的實施做好準備。執行該計畫的過程中執委會不僅會支援歐盟各國公共部門採用人工智慧,也會積極推動民間開發、應用人工智慧技術,以提升歐盟競爭力和促進歐盟的永續發展。

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).

瑞士公投通過基改生物培育禁令

  瑞士國會在2003年通過法律,允許有條件種植基改作物,但是反對者要求禁種的聲浪仍高,為此,瑞士甚至特別舉行了公民投票。公投結果在11月底出爐,正式確定未來五年瑞士境內將禁止種植基因改造植物或培育基因改造動物。根據官方資料顯示,有55.7%的投票者支持這項公投案,支持者多為農民、環保人士、生態學家和消費者協會。   反基因改造生物(GMO)者表示,基改農作物對消費者與農民並無益處,禁令將可使得瑞士有更多時間來評估GMO對於生態環境安全的衝擊,並且可使農民有更多的機會銷售傳統農產品和有機農產品。   雖然此一決定僅禁止GMO之種植或養殖,並沒有禁止基因改造科技的研究以及基改產品的進口,但瑞士生技業及科學研究人員仍極憂心地表示,實驗室的基改研究成果若無法量產上市,仍將會嚴重打擊其國內基因科技研究,造成人才及產業外移。

TOP