美國線上交易方式可能在歐洲行不通

        由於美國與歐洲國家消費者保護政策以及對定型化契約條款的解讀不同,在美國電子商務應用中所常見的線上契約定型化條款內容,很可能在歐洲被解釋為對消費者不公平 (unfair) 而無效。


  一位在法國巴黎執業的律師表示,在 AOL Bertelsmann Online France v. Que Choisir 案件中,許多美國律師常用的定型化契約條款,例如:網際網路服務提供者擁有單方變更契約內容之權;消費者之繼續使用服務等同於默示同意新的付費條款內容;網際網路服務提供者對於網路中斷造成的損害不負任何責任;限制消費者只能依循 AOL 的服務使用約款進行損害賠償之求償;及網際網路服務提供者保有中止服務等權利之條款等,在法國法院都被解釋為不合法而無效。雖然 AOL 這個案子還在進行上訴程序,法國巴黎法院在審理另一個案件時,也將類似的條款視為無效,而該案涉案主角則是義大利網際網路服務提供者。


  由於法國對於消費者保護的法規係源自於歐盟指令,而歐盟所有會員國皆須在一定期間內將指令內容納入內國法規範,一位在英國執業的律師表示, AOL 在法國法院所得到的判決,如果發生在英國甚或其他歐盟會員國,也可能得到同樣的結果。

※ 美國線上交易方式可能在歐洲行不通, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=574&no=55&tp=1 (最後瀏覽日:2026/02/26)
引註此篇文章
你可能還會想看
德國聯邦最高法院(BGH)判決醫師評價平台「Jameda」須刪除受評醫師個人資料

  德國聯邦最高法院(Bundesgerichtshof, BGH)在2018年2月20日的判決(Urt. V. 20.02.2018 – Az. VI ZR 30/17)中認定,網路評價網站(Bewertungsportale)之業務雖未違反聯邦資料保護法(Bundesdatenschutzgesetz, BDSG)規定,但其評價立場必須維持中立。醫師評價平台「Jameda」(www.jameda.de)之商業行為違反此項原則,故須依原告要求,刪除其在該網站之所有個人資料。   本案中,原告為執業皮膚科醫師,且非醫師評價平台「Jameda」之付費會員。然「Jameda」不僅將該醫師執業簡介列入其網站,且同時在其個人簡介旁,列出與其執業地點相鄰,具競爭關係之其他同為皮膚科醫師之付費會員廣告。反之,付費會員不但可上傳個人照片,且在其執業簡介旁,不會出現與其診所相鄰之競爭者廣告。   聯邦最高法院依據聯邦資料保護法第35條第2項第2款第1號 (§35 Abs. 2 S. 2 Nr. 1 BDSG) 規定,並經衡量同法第29條第1項第1款第1號 (§29 Abs. 1 S. 1 Nr. 1 BDSG) 規定之效果後,同意原告對「Jameda」提出刪除網頁所列個資之請求。法院見解認為,「Jameda」的廣告策略使其失去資訊與意見傳遞者之中立角色,並以自身商業利益為優先,故其言論自由不得優於原告之資訊自主權(informationelle Selbstbestimmung)。   該判決強制網路評價平台嚴格審查本身之廣告供應商務,並與聯邦憲法法院(Bundesverfassungsgericht)見解一致,用於商業目的之言論表達僅有低於一般言論自由的重要性。儘管如此,評價平台仍被視為介於患者間不可或缺的中介者(unverzichtbare Mittelperson),可使互不相識的病患,藉此獲得經驗交流的機會。   儘管本案判決同意原告刪除評價網站中所儲存個人資料之請求,但見解中,仍肯定評價網站具有公開醫療服務資訊之功能,符合公眾利益,受評價醫師被公開之個人簡介亦僅涉及與社會大眾相關之範圍。針對網站評分及評論功能之濫用,醫師仍可對各種不當行為分別採取法律途徑保障自身權益。由此可知,德國聯邦最高法院仍認定,評價網站之評分與評論機制,仍符合聯邦資料保護法規範之宗旨,惟若該評價網站以評價機制作為商業行銷手段,則不得主張其言論及意見表達自由高於受評價者之資訊自主權。

日本發布資料素養指南之資料處理篇,旨在促使企業理解便於活用於數位技術與服務的資料管理方法

日本獨立行政法人情報處理推進機構於2025年7月發布《資料素養指南(下稱《指南》)》,指南分為三大章,第一章為整體資料環境之變化;第二章為資料治理;第三章為資料、數位技術活用案例與工具利用。指南第二章中的資料處理篇,主要為促使企業理解有利活用於數位技術與服務的資料管理方法。 《指南》資料處理篇指出,資料的生命週期涵蓋資料設計、資料蒐集、外部資料連動、資料整合、資料處理、資料提供、資料累積以及資料銷毀等不同階段。《指南》建議在資料生命週期的各階段,盡可能的不要有人類的介入。舉例而言,資料蒐集可以透過感測器或系統進行。該建議的目的在於,人類介入資料生命週期,僅會引起輸入錯誤或是操作錯誤等風險。 此外,《指南》亦於資料處理篇中針對資料治理給出四點建議,分別如下: (一)資料是企業的重要資產,因此應重視其管理方式。管理方式涵蓋帳號密碼、透過生物辨識技術進行資料接觸管理、Log檔之取得、系統設定禁止使用USB等方式。 (二)資料治理的重點在於對人政策。除了向員工強調不要開啟不明網站及釣魚信件以外,企業亦應與員工建立堅實的信賴關係。 (三)資料公開或流通時應注意,如果不希望提供後的資料被二次利用,應於雙方間的資料利用契約中敘明。此外,由於資料具備易於複製及傳輸的特性,因此在公開或流通資料時,應考量適用諸如時戳技術等可確保資料原本性或使資料無法被竄改的數位技術。 (四)資料銷毀如果僅是單純的刪除資料,有透過數位技術找回資料的可能性。因此,除可評估委由專門進行資料銷毀服務的公司協助以外,由於銷毀資料經由個人電腦外洩之事件時有所聞,故亦應留意個人電腦之資料管理。 我國企業如欲將資料活用於數位技術或服務,除可參考日本所發布之《指南》資料處理篇以外,亦可參考資訊工業策進會科技法律研究所創意智財中心所發布之《重要數位資料治理暨管理制度規範》,以建立自身資料處理流程,進而強化資料管理能力。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

美國加州機動車輛管理局3月10日發布無人駕駛車輛管理方案

  無人駕駛汽車、電腦駕駛汽車或輪式移動機器人,皆屬自動化載具的一種,具有傳統汽車的運輸能力。而作為自動化載具,自動駕駛汽車不需要人為操作即能感測其環境及導航。目前無人車仍未全面商用化,大多數均為原型機及展示系統,部份可靠技術才下放至商用車型,但有關於自駕車逐漸成為現實,已經引起了很多有關於道德與法律上的討論。   無人駕駛車輛若能夠變得商用化,將可能對整體社會造成破壞性創新的重大影響。然而,在商品化之前的實際道路測試是自動駕駛車輛開發過程非常重要的一環,是否允許自動駕駛車輛實際上路測試為各地交通主管機關之職責。因此,為了保障公共安全與推廣創新,為美國加州機動車輛管理局(Department of Motor vehicles ,下稱加州DMV)便自2015年12月公布無人駕駛車輛規範草案後,歷經2016年9月的修正,於2017年3月10日正式公布無人駕駛車輛管理規範。   美國加州申請自動駕駛車輛上路測試規定係依據加州汽車法規 (California Vehicle Code)38750 中之條款 3.7所訂定,依照加州DMV規畫,在社區內和高速公路上進行測試的自動駕駛車,仍需與傳統汽車一樣,具有方向盤與煞車踏板,而且駕駛座上亦需有人隨時待命應付緊急情況發生。此外,無人駕駛車輛尚必須有人進行遠距監控,並且能在緊急情況發生時安全停靠路邊。   截至2017年3月8日,已有27家公司獲得加州DMV許可,在道路上測試無人駕駛車輛,且這些車輛迄今只造成少數事故。加州DMV公布無人駕駛車輛管理規範後,還將於2017年4月24日舉行公聽會持續蒐集意見,研擬規範修改內容,以符合實際需求。   人駕駛車輛是汽車產業未來發展的趨勢之一,我國於不久的將來亦可能面臨有無人駕駛車輛在國內進行實際道路測試的需求。然而,我國地狹人稠,交通狀況複雜,且國人守法觀念尚有加強空間,確也增添無人駕駛車輛在國內道路測試的挑戰性,以及主管機關於受理測試申請之困難度。因此,加州DMV所公布之無人駕駛車輛管理規範之後續發展,值得吾人持續關注。

英國發布「人工智慧:機會與未來決策影響」政策報告,並聚焦人工智慧運用及管理

  英國科學辦公室於2016年11月9日,發布一份政策報告:「人工智慧:機會與未來決策影響(Artificial intelligence: opportunities and implications for the future of decision making)」,介紹人工智慧對於社會及政府的機會和影響,此份政策報告並提出以下各項重要建議: (一)關於人工智慧及應用界定與發展   人工智慧是指由人工製造系統所表現出來的智慧。不僅是將現有的流程自動化,還包含制定目標,並利用電腦程式實現這些目標,常見案例包括線上翻譯、語音辨識、搜尋引擎篩選排序、垃圾郵件過濾、透過用戶回饋改善線上服務、預測交通流量、環境或社會經濟趨勢發展觀察等。 (二)未來對社會及政府利益及衝擊   人工智慧針對提高生產力有巨大的潛力,最明顯的就是幫助企業或個人更有效地運用資源,並簡化大量資料的處理,例如Ocado 及 Amazon這樣的公司正充份利用人工智慧改善倉儲及銷售網路系統,使得客戶可便利快速購得網購商品。   目前,政府也日益增加相關技術的運用,以提高公共服務效率,使資源達到最佳化分配;減少決策者被誤導的可能;使政府決策透明化;確保各部門更了解人民的意見。然政府在利用人工智慧及巨量資料時,應遵守倫理使用指南,並遵守英國資料保護法及歐盟一般資料保護規則等相關法規。   在巨量資料、機器人、自動系統對於勞動市場的衝擊一直都是關注的議題,對於面臨未來工作結構的轉型及相關技術人員的進修及培養,應及早規劃,以適應未來的轉變。 (三)關於相關道德及法律風險管理課題   人工智慧可能潛在相關道德倫理問題。許多專家認為政府應積極管理並降低風險發生可能性,可從以下兩個面向思考: (1)研究機器學習與個人資料運用結合時,對個人自由、隱私和同意等概念的影響。 (2)調適由人工智慧作決策行為時的歸責概念和機制。   有關實際案例之研究,則包括,執法單位在應用預測技術時,應避免以種族、國籍、地址作為標準,並嚴守無罪推定原則,以防止民眾受到歧視或不公平的指控;透過人工智慧可從公開資料推測出某些私人訊息或其親朋好友的消息,此訊息即可能超出原先個人同意披露的內容;原先匿名化及去識別化的訊息,因人工智慧功能加強,導至可能被重新識別,故須定期檢視該保護措施是否足夠。另外,人工智慧的演算偏差可能導致偏見的風險,為了降低這種風險,技術人員應採取對應措施。   針對責任及疏失的判斷,目前尚無太多的實務案例,但為保持對使用人工智慧的信任,仍需有明確的歸責制,可能有必要讓首席執行長或高級主管對人工智慧做出的決策負最終責任。許多專家也建議,部分技術內容須保持透明度,以確定技術使用時是否有盡到相關注意義務。   人工智慧已成為未來發展趨勢之一,對於社會整體層面影響將越來越深,新的技術除了可提升生產力,帶來便利的生活,同樣也會帶來衝擊。為促進相關產業發展及推展新技術的使用,應打造技術發展友善環境,並對於公眾安全進行相關風險評估,如果風險屬於現有監管制度範圍,應評估是否可充分解決風險,或是須要做相對應的調適。另外,在人工智慧融入現實世界同時,相關業者應注意相關產品安全性、隱私權保護和從業人員的倫理教育,以提高大眾對新技術的接受及信賴,並確保對於未來挑戰及轉變已做好萬全準備。

TOP