APPLE iPhone 3G訊號差遭用戶提告

  具外電報導,美國一阿拉巴馬州居民已向法院提起告訴,控告蘋果公司(APPLE)手機(iPhone 3G)之上網速度緩慢,與其廣告之陳述大相逕庭。

 

  興訟人Jessica Alena Smith於本月19日向美國北阿拉巴馬州地方法院提請訴訟,其於長達十頁之訴訟書中聲稱,APPLE iPhone 3G的速度比宣傳的速度慢,該廣告已有誤導之嫌。Smith要求代表其他用戶使這起訴訟變成一個聯合訴訟。

 

  APPLE廣告聲稱iPhone 3G「一半的價錢,一倍的速度」,能更快地登入網路、上網、收發email、傳送簡訊等,但Smith認為其實際情況卻比廣告所說的緩慢。原告之代表律師表示,APPLE顯然已違背該產品出售時所做出的承諾。同時,更有些許使用者發現iPhone 3G容易發生通話或上網斷訊的情況。

 

  經過幾週的沉默後,APPLE終於體認該產品確實存有訊號接收的問題。APPLE並已發佈「iPhone OS 2.0.2」軟體更新程式並稱能「修正問題」,且已置於iTunes供使用者免費下載,以改善iPhone3G的網絡連接性能。但其是否能修復使用者提出的上述問題,尚不得而知。

 

  該訴訟中要求APPLE提供維修或更換瑕疵產品並負擔損害賠償與律師費用等。目前APPLE尚未對該項請求提出回應或發表評論。

相關連結
※ APPLE iPhone 3G訊號差遭用戶提告, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=2874&no=67&tp=1 (最後瀏覽日:2026/02/23)
引註此篇文章
你可能還會想看
企業員工分紅改列費用,衝擊高科技產業

  經濟部、金管會刻正規畫將企業員工分紅改列費用,並預計自九十六年度實施,以與國際會計處理原則接軌,預料將對高科技業將造成相當之衝擊。   國際會計準則都是將分紅列為費用計算,唯獨台灣是用盈餘在分配員工分紅,為與國際會計準則接軌,將分紅列入費用應是未來趨勢,可讓財報更加透明化,新今年 4 月 28 日 立法院修正通過的商業會計法第 64 條規定,公司企業應將員工分配盈餘在財報上改列為費用,以公平市價作為計算基準,並將另採行政命令或解釋令公布入帳方式。   不過員工分紅若以市價列入費用,公司帳上賺的錢就會減少,尤其是高價股、高配股的公司影響尤甚;另一方面,新規定亦可能使這些公司趕採股票選擇權,以或提高底薪、現金分紅等方式來降低衝擊,否則若是獲利都被「員工配股」稀釋光了,財報會非常難看。因此,高科技業者則希望主管機關能放寬買回庫藏股分配員工及員工認股權證規定,以降低衝擊。

美國最高法院認定美國環保署須負責管制溫室氣體排放

  今(2007)年4月2日,美國最高法院以5票對4票之決議,認定美國環保署(the Environmental Protection Agency)必須負責管制美國境內二氧化碳等溫室氣體之排放。過往,美國環保署主張其並無權限去管制溫室氣體排放,因為溫室氣體並不是美國潔淨空氣法(the Clear Air Act)所定義的空氣污染源(air pollutant)。然而,法院指出,在潔淨空氣法中要求美國環保署必須管制可能危害公眾健康或福祉的任何空氣污染源,而溫室氣體符合該法對於空氣污染源之定義,所以除非美國環保署可以斷定溫室氣體並未導致氣候變遷,或者可以提供合理解釋說明為何其無法判斷是否溫室氣體導致氣候變遷,否則美國環保署須依法對溫室氣體採取進一步行動。   判決同時指出,美國環保署不能以氣候變遷之不確定性為理由來迴避其職責,如果該不確定性足以防止美國環保署對於溫室氣體與氣候變遷兩者關聯做出合理判斷,則美國環保署必須說明清楚。   然而,持不同意見的法官則指出,法院應將全球暖化問題留給國會與總統來處理;且州政府(訴訟是由Massachusetts州為首的12個州政府對美國環保署提出)並無立場對美國環保署提出告訴。

IBM提出「人工智慧日常倫理」手冊作為研發人員指引

  隨著人工智慧快速發,各界開始意識到人工智慧系統應用、發展過程所涉及的倫理議題,應該建構出相應的規範。IBM於2018年9月02日提出了「人工智慧日常倫理」(Everyday Ethics for Artificial Intelligence)手冊,其以明確、具體的指引做為系統設計師以及開發人員間之共同範本。作為可明確操作的規範,該手冊提供了問責制度、價值協同、可理解性等關注點,以促進社會對人工智慧的信任。 一、問責制度(Accountability)   由於人工智慧的決策將作為人們判斷的重要依據,在看似客觀的演算系統中,編寫演算法、定義失敗或成功的程式設計人員,將影響到人工智慧的演算結果。因此,系統的設計和開發團隊,應詳細記錄系統之設計與決策流程,確保設計、開發階段的責任歸屬,以及程序的可檢驗性。 二、價值協同(Value Alignment)   人工智慧在協助人們做出判斷時,應充分考量到事件的背景因素,其中包括經驗、記憶、文化規範等廣泛知識的借鑑。因此系統設計和開發人員,應協同應用領域之價值體系與經驗,並確保演算時對於跨領域的文化規範與價值觀之敏感性。同時,設計師和開發人員應使人工智慧系統得以「了解並認知」用戶的價值觀,使演算系統與使用者之行為準則相符。 三、可理解性(Explainability)   人工智慧系統的設計,應盡可能地讓人們理解,甚至檢測、審視它決策的過程。隨著人工智慧應用範圍的擴大,其演算決策的過程必須以人們得以理解的方式解釋。此係讓用戶與人工智慧系統交互了解,並針對人工智慧結論或建議,進而有所反饋的重要關鍵;並使用戶面對高度敏感決策時,得以據之檢視系統之背景數據、演算邏輯、推理及建議等。   該手冊提醒,倫理考量應在人工智慧設計之初嵌入,以最小化演算的歧視,並使決策過程透明,使用戶始終能意識到他們正在與人工智慧進行互動。而作為人工智慧系統設計人員和開發團隊,應視為影響數百萬人甚至社會生態的核心角色,應負有義務設計以人為本,並與社會價值觀和道德觀一致的智慧系統。

美國「人工智慧應用管制指引」

  美國白宮科學與技術政策辦公室(The White House’s Office of Science and Technology Policy , OSTP)於2020年1月9日發布「人工智慧應用管制指引」(Guidance for Regulation of Artificial Intelligence Application),為美國政府機關起草人工智慧規範並進行管制時提供指引,該指引內要求各機關之規範應遵循以下10項人工智慧原則: 一.公眾對AI之信任:政府對AI之管制或其他措施應促進AI之可靠性、健全性,且於應用上應具備可信性。 二.公共參與:政府應提供機會讓利害關係人參與AI管制規範立法程序。 三.科學實證與資訊品質:科學實證與資訊品質:政府機關發展AI之相關技術資訊,應透過公開且可驗證之方式提供給大眾參考,以提高大眾對AI之信任與協助政策制定。 四.風險分析與管理:應採取以風險為基礎之分析評估方法,確認哪些風險係可接受之風險,或那些風險代表無法接受之損害或所失利易大於預期利益。 五.利益與成本:政府於擬定相關規範時,應小心評估AI對於整體社會之利益,與預期外之效果。 六.彈性:法規應持續滾動檢視與調修以因應AI之創新應用。 七.公平且無歧視:政府應針對AI之應用與決策,考量公平與無歧視相關議題。 八.揭露與透明:透明度與揭露程序之建立可提升公眾對AI應用之信任。 九.安全:政府應特別注意AI系統內所儲存或傳輸資訊之安全與相關安全維護控制措施。 十.跨機關合作:政府各部會或機構間應相互合作與分享經驗,以確保AI相關政策之一致性與可預測性。

TOP