蘋果與亞馬遜商標侵權談判破裂

  亞馬遜公司(Amazon)將其Android Apps商店命名為「Appstore」後,遭蘋果公司(Apple Inc.)以「Appstore」為其所擁有的商標,控告亞馬遜公司(Amazon)侵害其商標權並違反不公平競爭法。而亞馬遜公司(Amazon)則以「Appstore」為一個「通用名稱」加以反駁。亞馬遜公司(Amazon)認為,「Appstore」這個詞已經成為一個「通用名稱」,它代表著一個應用程式的資料庫之意,而沒有專門代表著蘋果公司(Apple Inc.)的意義。雙方歷經兩年訴訟後,根據加州聯邦法院資料,兩家公司的代表,於今年(2013)5月初與6月中曾兩度進行和解談判,但截至目前為止,雙方並未達成和解協議。

 

  根據美國專利商標局(USPTO)商標申請紀錄,蘋果公司(Apple Inc.)以「Appstore」於2008年3月6日向美國專利商標局(USPTO)提出在第35類(提供通過電腦軟體為特色的零售店鋪服務、在移動數位電子設備及其他消費類電子產品上使用的電腦軟體為特色之零售商店服務等)、第38類(全球電腦網路、無線網路和電子通信網路及資訊傳輸、維護等)、第42類(提供臨時使用非可下載電腦軟體進行計畫,組織和訪問視訊,多媒體內容的電腦軟體程式等服務等)的商標申請案,其中並提出已於2008年7月10日使用之相關主張,惟本件商標申請案尚未獲得最終核准。而包括微軟等其他公司,都向美國專利商標局(USPTO)提出駁回該商標之請求,以阻止蘋果公司(Apple Inc.)的申請,以確保不會因為蘋果公司(Apple Inc.)之商標註冊而影響自身使用該名稱之權利。

 

  但因本件經過兩輪談判,蘋果公司(Apple Inc.)與亞馬遜公司(Amazon)仍未就侵權爭議達成和解。故雙方間的商標爭議很可能最終須於法庭內解決。目前審判時間已被定於今年8月。「Appstore」將被認為屬於蘋果公司的專屬商標,亦或屬於公眾皆可使用的通用名稱,結果值得拭目以待。

相關連結
※ 蘋果與亞馬遜商標侵權談判破裂, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6305&no=55&tp=1 (最後瀏覽日:2026/02/11)
引註此篇文章
你可能還會想看
澳洲發布《人工智慧臨床應用指引》提供臨床照護之人工智慧使用合規框架

澳洲醫療安全與品質委員會(Australian Commission on Safety and Quality in Health Care, ACSQHC)與衛生、身心障礙及高齡照護部(Department of Health, Disability and Ageing)聯合於2025年8月發布《人工智慧臨床應用指引》(AI Clinical Use Guide),旨在協助醫療人員於臨床情境中安全、負責任使用人工智慧(Artificial Intelligence, AI)。該文件回應近年生成式AI與機器學習快速導入醫療現場,卻伴隨證據不足、風險升高的治理挑戰,試圖在促進創新與確保病人安全之間建立清楚的合規框架。 該指引以臨床流程為核心,將AI使用區分為「使用前、使用中、使用後」三個階段,強調醫療人員須理解AI工具的預期用途、證據基礎與風險限制,並對所有AI產出負最終專業責任。文件特別指出,當AI工具用於診斷、治療、預測或臨床決策支持時,可能構成醫療器材,須符合澳洲醫療用品管理管理局(Therapeutic Goods Administration, TGA)的相關法規要求。 在風險治理方面,該指引明確區分規則式AI、機器學習與生成式AI,指出後兩者因輸出不確定性、資料偏誤與自動化偏誤風險較高,臨床人員不得過度依賴系統建議,仍須以專業判斷為核心。同時,文件要求醫療機構建立AI治理與監督機制,持續監測效能、偏誤與病安事件,並於必要時通報TGA或隱私主管機關。 在病人權益與隱私保護方面,指引強調知情同意與透明揭露,醫療人員須向病人說明AI使用目的、潛在風險及替代方案,並遵循《1998年隱私法》(Privacy Act 1988)對個人健康資料儲存與跨境處理的限制。澳洲此次發布之臨床AI指引,展現以臨床責任為核心、結合法規遵循與風險管理的治理取向,為各國醫療體系導入AI提供具體且可操作的合規參考。 表1 人工智慧臨床應用指引合規流程 使用前 使用中 使用後 1.界定用途與風險。 2.檢視證據與合規。 3.完備治理與告知。 1.AI輔助決策。 2.即時審查修正。 3.維持溝通透明。 1.持續監測效能。 2.標示可追溯性。 3.通報與再評估。 資料來源:AUSTRALIAN COMMISSION ON SAFETY AND QUALITY IN HEALTH CARE [ACSQHC], AI Clinical Use Guide (2025).

美國國防授權法案擴大告發者保護範圍透過外部監督有效遏止不法行為

  自2013年7月1日起,2013年國防授權法(2013 National Defense Authorization Act,NDAA)新規定生效,使得聯邦政府採購案件對告發不法行為者(whistleblower)的保護,由承包商的雇員擴及於分包商的雇員,在此之前,如果分包商的員工向政府直接告發不法行為時,絲毫沒有法律可以用於對抗雇主可能採取的報復措施。   2013 NDAA業於1月份經美國總統簽署,期中除新增對於分包商雇員保護外,該法案也擴張了主包商員工的保護範圍。新法之下,主包商員工如向其公司內部之主管告發不法行為,一樣可以受到法律對告發者的保護,強化了現行法下只有直接對政府申訴者始能得到法律保護。   根據2013 NDAA第828節之規定,承包商、分包商之雇員,都不能被解雇、降級或其他歧視行為以作為揭發行為之報復。當這些雇員合理認為有關於聯邦契約的管理不善、聯邦經費的浪費、或濫用聯邦契約授與之權力等行為,而可能造成潛在的或特定的對公共健康或安全之危害時,或違反聯邦契約行為有關法律或法規時,而向國會議員、稽查總長、政府課責辦公室(The Government Accountability Office)、聯邦契約管理人員、司法部人員、法院或陪審團、承包商或次包商負責調查不法之人員等提供資訊時。法規也明訂,條文中所謂報復,包括該等人員即使是受到行政機關人員在法定權限內的的正式要求而提供資訊時亦然。

微軟與阿爾卡特的專利官司勝負難分

  2007年2月份美國加州聖地牙哥法院甫宣判,微軟公司必須支付約15億美元(折合新台幣近500億元)給阿爾卡特(Alcatel-Lucent)公司,以解決微軟公司產品使用MP3技術所引發的糾紛。不過在3月初,另一位聯邦法官Rudi Brewster做出一項裁定,駁回阿爾卡特公司所有的主張,因為阿爾卡特公司主張微軟公司侵害一項其所有之有關語音編碼的技術專利。   微軟與阿爾卡特的專利官司可追溯至2003年,當時未合併前的朗訊(Lucent,二公司於2006下半年合併)公司控告PC製造商Dell與Gateway使用其所擁有的MP3技術專利。微軟公司後來被捲入這場專利糾紛,與阿爾卡特(Alcatel-Lucent)公司專利官司的糾紛日益擴大。二家公司爭訟的結果,在2月份的判決,根據2003年5月以來微軟公司所賣出的每台Windows PC數目,來計算出可能造成的損失,所以微軟公司才必須付出約15億美元的天價。   但是3月的這項裁定,卻阻止阿爾卡特公司趁勝追擊。在知識經濟的時代中,專利訴訟的結果甚至可能影響一家公司的興亡,相信沒有多少家公司可以輕易付出15億美元的賠償,如何確保不侵犯他人的智慧財產是很重要的課題。此外,爭訟的雙方都是業界的重量級廠商,不論結果如何,後續的發展都值得大家關注。

英國發布人工智慧網路資安實務守則

英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。

TOP