日本首宗對網路拍賣業者提起之集團訴訟

  於日本雅虎拍賣網站 ( ????????? Yahoo! Auctions) 交易,卻遭受詐欺之五百七十二名被害者,於三月三十一日向日本名古屋地方法院對日本雅虎公司以系統缺陷 ( ????? system defect) 為由提起訴訟,請求總額一億一千五百萬元之損害賠償,成為日本第一宗對網路拍賣業者提起之集團訴訟。


   原告方面皆是二○○○年四月至今年二月間曾於日本雅虎拍賣網站出價並且得標之買家,當買家將價金匯入賣家指定之帳戶後,卻未曾收到商品。原告主張:一、雅虎對於賣家及買家收取費用,即相當於仲介商;二、雅虎對於賣家實際刊登之商品未盡檢查、核對之責;三、雅虎負有提供無拍賣系統缺陷之契約上義務,以避免損害發生的可能性。日本雅虎則以尚未收受訴狀為由拒絕發表評論。

相關連結
※ 日本首宗對網路拍賣業者提起之集團訴訟, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=676&no=64&tp=1 (最後瀏覽日:2026/02/05)
引註此篇文章
你可能還會想看
全球最大無人機製造商DJI在美對科技新興公司Yuneec 提起專利侵權訴訟

  SZ DJI Technology Co.和DJI Europe B.V.(下簡稱DJI)來自中國,是世界上最大的無人機製造商,DJI向加州中區聯邦地區法院起訴科技新興公司Yuneec Intemational Co.Ltd.和Yuneec Usa Inc.(下簡稱Yuneec)涉嫌侵害其跟踪移動目標系統,和可拆卸支架360度攝影機鏡頭的兩項專利,且請求法院發布禁制令,以阻止進一步銷售,並請求損害賠償。   這兩項專利,一為美國專利編號9164506“跟踪移動目標系統”,一旦遠端操作員指定了目標,無人機會自動跟蹤並保持相機拍攝目標;另一個專利為美國專利編號9280038,可讓無人機的照相機旋轉360度進行拍攝,並連接到分離的手持式攝像機,DJI強調公司多年來為開發該產品投注相當的時間和資源。   總部位於香港的Yuneec在一月的消費電子展(Consumer Electronics Show)上引起轟動,Yuneec使用GPS感知技術避免危險區域如機場,媒體於消費展後的報導稱Yuneec的無人駕駛飛機已經威脅到DJI市場上的地位。   Yuneec在5月25日向加州中區聯邦地區法院提起反訴認為其無侵權,並表示目標跟踪是一個抽象的概念不能以此申請專利,“跟踪是一個古老的概念” Yuneec的代表律師威爾遜表示,“該506專利並不是要揭露新的跟踪技術,相反的它只是描述並使用眾所周知的無人機的跟踪技術“。而另項專利可拆卸的支架360度攝影機鏡頭,如GoPros已有類似的產品,甚至遠比DJI的產品還早之前。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

美國證券交易委員會發布指引要求公司進一步揭露加密資產之潛在影響

美國證券交易委員會(United States Securities and Exchange Commission,下稱SEC)於2022年12月8日發布「致公司有關近期加密資產市場發展之樣本函(Sample Letter to Companies Regarding Recent Developments in Crypto Asset Markets)」指引文件(下稱本指引),指導公司應針對自身業務涉及近期加密資產市場動盪事件(如虛擬貨幣交易所破產等),進行直接或間接影響之風險揭露,以符合聯邦證券法規之資訊揭露(如風險及風險暴露等)義務。SEC轄下之企業金融處(Division of Corporation Finance,以下簡稱金融處)認為公司應向投資者提供具體且量身訂製之市場動盪事件報告、揭露公司在動盪事件中之狀況以及可能對投資者造成之影響。爰此,本負有常態報告義務的公司應據此考量現有的揭露內容是否須進行更新。 金融處說明,為加強並監督公司對資訊揭露要求之遵守狀況,爰依據1933年證券法(Securities Act of 1933)及1934年證券交易法(Securities Exchange Act of 1934)內涵,要求公司亦須針對應作出聲明的實際狀況,進一步揭露相關重大訊息,且不得進行誤導。本指引所要求公司明確揭露加密資產市場發展的重大影響,包括公司對競爭對手及其他市場參與者之風險暴露;與公司流動資金及獲取融資能力相關的風險;及與加密資產市場法律程序、調查或監管影響相關的風險等。 值得注意的是,本指引並未列出公司應考量問題的詳細清單,個別公司應視自身情況評估已存在之風險,或是否可能受到潛在風險事項的影響。由於公司所揭露之文件事前通常不會經過金融處審查,因此金融處也敦促各公司應自主依循本指引進行相關文件準備。

經濟合作與發展組織發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》

經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2023年2月23日發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》(Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI)。本報告整合ISO 31000:2018風險管理框架(risk-management framework)、美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)人工智慧風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF)與OECD負責任商業行為之盡職調查指南(OECD Due Diligence Guidance for Responsible Business Conduct)等文件,將AI風險管理分為「界定、評估、處理、治理」四個階段: 1.界定:範圍、背景、參與者和風險準則(Define: Scope, context, actors and criteria)。AI風險會因不同使用情境及環境而有差異,第一步應先界定AI系統生命週期中每個階段涉及之範圍、參與者與利害關係人,並就各角色適用適當的風險評估準則。 2.評估:識別並量測AI風險(Assess: Identify and measure AI risks)。透過識別與分析個人、整體及社會層面的問題,評估潛在風險與發生程度,並根據各項基本價值原則及評估標準進行風險量測。 3.處理:預防、減輕或停止AI風險(Treat: Prevent, mitigate, or cease AI risks)。風險處理考慮每個潛在風險的影響,並大致分為與流程相關(Process-related)及技術(Technical)之兩大處理策略。前者要求AI參與者建立系統設計開發之相關管理程序,後者則與系統技術規格相關,處理此類風險可能需重新訓練或重新評估AI模型。 4.治理:監控、紀錄、溝通、諮詢與融入(Govern: Monitor, document, communicate, consult and embed)。透過在組織中導入培養風險管理的文化,並持續監控、審查管理流程、溝通與諮詢,以及保存相關紀錄,以進行治理。治理之重要性在於能為AI風險管理流程進行外在監督,並能夠更廣泛地在不同類型的組織中建立相應機制。

美國商務部國家電信和資訊管理局呼籲透過第三方評測提高AI系統透明度

2024年3月27日,美國商務部國家電信和資訊管理局(National Telecommunications and Information Administration, NTIA)發布「人工智慧問責政策報告」(AI Accountability Policy Report),該報告呼籲對人工智慧系統進行獨立評估(Independent Evaluations)或是第三方評測,期待藉此提高人工智慧系統的透明度。 人工智慧問責政策報告就如何對人工智慧系統進行第三方評測提出八項建議作法,分別如下: 1.人工智慧稽核指引:聯邦政府應為稽核人員制定適合的人工智慧稽核指引,該指引須包含評估標準與合適的稽核員證書。 2.改善資訊揭露:人工智慧系統雖然已經應用在許多領域,但其運作模式尚缺乏透明度。NTIA認為未來可以透過類似營養標籤(Nutrition Label)的方式,使人工智慧模型的架構、訓練資料、限制與偏差等重要資訊更加透明。 3.責任標準(Liability Standards):聯邦政府應盡快訂定相關責任歸屬標準,以解決現行制度下,人工智慧系統造成損害的法律責任問題。 4.增加第三方評測所需資源:聯邦政府應投入必要的資源,以滿足國家對人工智慧系統獨立評估的需求。相關必要資源如: (1)資助美國人工智慧安全研究所(U.S. Artificial Intelligence Safety Institute); (2)嚴格評估所需的運算資源與雲端基礎設施(Cloud Infrastructure); (3)提供獎金和研究資源,以鼓勵參與紅隊測試的個人或團隊; (4)培養第三方評測機構的專家人才。 5.開發及使用驗證工具:NTIA呼籲聯邦機關開發及使用可靠的評測工具,以評估人工智慧系統之使用情況,例如透明度工具(Transparency Tools)、認驗證工具(Verification and Validation Tools)等。 6.獨立評估:NTIA建議聯邦機關應針對高風險的人工智慧類別進行第三方評測與監管,特別是可能侵害權利或安全的模型,應在其發布或應用前進行評測。 7.提升聯邦機關風險管控能力:NTIA建議各機關應記錄人工智慧的不良事件、建立人工智慧系統稽核的登記冊,並根據需求提供評測、認證與文件紀錄。 8.契約:透過採購契約要求政府之供應商、承包商採用符合標準的人工智慧治理方式與實踐。 NTIA將持續與利害關係各方合作,以建立人工智慧風險的問責機制,並確保該問責報告之建議得以落實。

TOP