不到一個月內,HP二次控訴Acer侵害其專利權

  2007年3月27日HP(Hewlett-Packard)公司甫向美國德州聯邦法院控訴台灣的宏碁(Acer)公司侵害該公司五項的專利權;不到一個月的時間,於4月19日又再度向該法院控訴宏碁公司侵害其四項的專利權,包含散熱裝置、電力儲存等專利。除請求賠償金外,亦要求法官禁止宏碁公司相關產品在美國市場上銷售。

 

  不過HP公司第二次起訴的時間點正在市場研究機構IDC公司公佈相關的統計資料後,因為根據IDC公司於4月18日公佈2007年第一季的統計資料顯示,HP公司仍然穩坐全球電腦市場銷售的龍頭,其他領先的廠商依序為戴爾(Dell)、聯想(Lenovo)與宏碁等公司。但同樣是根據IDC的統計,宏碁公司在2005至2006年間已成長37.9%,而且榮獲美國市場多種的獎項,未來的銷售發展情形十分樂觀。

 

  HP公司控訴宏碁公司的行為,是否基於競爭策略的考量目前尚不得而知,但據報導HP公司也在同(19)日向美國國際貿易委員會(ITC)提出申訴,要求禁止宏碁公司的產品進口到美國。原則上ITC的委員會在一個月內決定是否對該案件進行調查,接著在12至15個內完成調查後,才會做出最後的決定。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 不到一個月內,HP二次控訴Acer侵害其專利權, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=2225&no=55&tp=1 (最後瀏覽日:2026/02/06)
引註此篇文章
你可能還會想看
美國北卡羅萊納州將虛擬貨幣交易所納入貨幣傳輸法的適用對象

  為迎接數位貨幣此種新興產業所帶來的挑戰,在企業經營者與立法者的同意下,北卡羅萊納州於2016年6月通過H.B. 289法案,擴大該州貨幣傳輸法(Money Transmitters Act )的適用對象,將虛擬貨幣交易所納為貨幣移轉服務商,其須向主管機關申請特定執照,並繳納保證金,立法者更於2017年追加繳納保險金的規定,以避免資安危機。法案內對虛擬貨幣的定義為,一種能表彰價值的數字,可經由電子交易並具有交易媒介(medium of exchange)、計價單位(unit of account)和價值儲存(store of value)等功能,但虛擬貨幣並不是美國政府所承認的法定貨幣(legal tender status)。   又虛擬貨幣的經營業務,範圍包含建立於區塊鏈的虛擬貨幣活動,但排除挖礦者、使用區塊鏈技術的軟體公司,像是智能合約平台(smart contract platforms)、智能資產(smart property)等適用對象。申請貨幣移轉業務執照,須繳交1500美金的費用,再加上每年至少5000美元的評估費用。此外,為保障使用者所要求的保證金部分,貨幣移轉金額若低於100萬美元者,必須提出15萬美元作為擔保,若超出100萬美元者,則須提出更高的保證金。此項法案的出爐強化了法律的明確性,為該州經營虛擬貨幣的業者,提供一項可預見的規範,該法案未來是否能成為其他州成立新法的指標,仍有待後續發展。

歐盟「人工智慧法」達成政治協議,逐步建立AI準則

歐盟「人工智慧法」達成政治協議, 逐步建立AI準則 資訊工業策進會科技法律研究所 2023年12月25日 隨著AI(人工智慧)快速發展,在各領域之應用日益廣泛,已逐漸成為國際政策、規範、立法討論之重點。其中歐盟人工智慧法案(Artificial Intelligence Act, AI Act,以下簡稱AIA法案)係全球首部全面規範人工智慧之法律架構,並於2023年12月9日由歐洲議會及歐盟部長歷史會達成重要政治協議[1],尚待正式批准。 壹、發佈背景 歐洲議會及歐盟部長理事會針對AIA法案已於本年12月9日達成暫時政治協議,尚待正式批准。在法案普遍實施前之過渡期,歐盟執委會將公布人工智慧協定(AI Pact),其將號召來自歐洲及世界各地AI開發者自願承諾履行人工智慧法之關鍵義務。 歐盟人工智慧法係歐盟執委會於2021年4月提出,係全球首項關於人工智慧的全面法律架構,該項新法係歐盟打造可信賴AI之方式,將基於AI未來可證定義(future proof definition),以等同作法直接適用於所有會員國[2]。 貳、內容摘要 AIA法案旨在確保進入並於歐盟使用之AI人工智慧系統是安全及可信賴的,並尊重人類基本權利及歐盟價值觀,在創新及權利義務中取得平衡。對於人工智慧可能對社會造成之危害,遵循以風險為基礎模式(risk-based approach),即風險越高,規則越嚴格,現階段將風險分為:最小風險(Minimal risk)、高風險(High-risk)、無法接受的風險(Unacceptable risk)、特定透明度風險(Specific transparency risk)[3]。與委員會最初建議版本相比,此次臨時協定主要新增內容歸納如下: 臨時協議確立廣泛域外適用之範圍,包含但不限於在歐盟內提供或部署人工智慧系統的企業[4]。但澄清該法案不適用於專門用於軍事或國防目的之系統。同樣,該協定規定不適用於研究和創新目的之人工智慧系統,也不適用於非專業原因之個人AI使用。 臨時協議針對通用AI(General purpose AI)[5]模型,訂定相關規定以確保價值鏈之透明度;針對可能造成系統性風險之強大模型,訂定風險管理與重要事件監管、執行模型評估與對抗性測試等相關義務。這些義務將由執委會與業界、科學社群、民間及其他利害關係人共同制定行為準則(Codes of practices)。 考量到人工智慧系統可用於不同目的之情況,臨時協議針對通用AI系統整合至高風險系統,並就基礎模型部分商定具體規則,其於投放市場之前須遵守特定之透明度義務,另強調對於情緒識別系統有義務在自然人接觸到使用這種系統時通知他們。 臨時協議針對違反禁止之AI應用,罰款金額自3,500萬歐元 或全球年營業額7%(以較高者為準)。針對違反其他義務罰款1,500萬歐元或全球年營業額3%,提供不正確資訊罰 款750萬歐元或全球年營業額1.5%。針對中小及新創企業違反人工智慧法之行政罰款將設定適當之上限。 參、評估分析 在人工智慧系統之快速發展衝擊各國社會、經濟、國力等關鍵因素,如何平衡技術創新帶來之便利及保護人類基本權利係各國立法重點。此次歐盟委員會、理事會和議會共同對其2021年4月提出之AIA法案進行審議並通過臨時協議,係歐洲各國對於現下人工智慧運作之監管進行全面的討論及認可結果,對其他國家未來立法及規範有一定之指引效果。 此次臨時協議主要針對人工智慧定義及適用範圍進行確定定義,確認人工智慧系統產業鏈之提供者及部署者有其相應之權利義務,間接擴大歐盟在人工智慧領域之管轄範圍,並對於人工智慧系統的定義縮小,確保傳統計算過程及單純軟體使用不會被無意中禁止。對於通用人工智慧基礎模型之部分僅初步達成應訂定相關監管,並對基礎模型之提供者應施加更重之執行義務。然由於涉及層面過廣,仍需業界、科學社群、民間及其他利害關係人討論準則之制定。 面對AI人工智慧之快速發展,各國在人工智慧之風險分級、資安監管、法律規範、資訊安全等議題持續被廣泛討論,財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境,將持續觀測各國法令動態,提出我國人工智慧規範之訂定方向及建議。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI,https://www.europarl.europa.eu/news/en/press-room/20231206IPR15699/artificial-intelligence-act-deal-on-comprehensive-rules-for-trustworthy-ai (last visited December 25, 2023). [2]European Commission, Commission welcomes political agreement on Artificial Intelligence Act,https://ec.europa.eu/commission/presscorner/detail/en/ip_23_6473 (last visited December 25, 2023). [3]Artificial intelligence act,P5-7,https://superintelligenz.eu/wp-content/uploads/2023/07/EPRS_BRI2021698792_EN.pdf(last visited December 25, 2023). [4]GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2 (last visited December 25, 2023). [5]General purpose AI-consisting of models that “are trained on broad data at scale, are designed for generality of output, and can be adapted to a wide range of distinctive tasks”, GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2(last visited December 25, 2023).

從德國法談濫發商業電子郵件之規範

美國猶他州訂定「應用程式商店問責法」保障未成年人用戶之安全網路環境

美國猶他州州長於2025年3月26日正式簽署「應用程式商店問責法(App Store Accountability Act)」(下稱本法)並於同年5月7日生效,為全美首部強制應用程式商店實施年齡驗證及家長同意機制的州法,其核心目標為強化對未成年人的網路環境保護。 本法要求應用程式商店供應商(下稱供應商)於用戶創建帳戶時驗證用戶年齡,若確認為未成年人,其帳戶必須與經過驗證的「家長帳戶」相關聯,未成年人下載或購買應用程式前,供應商須自家長處獲得「可驗證的同意」,且為確保該同意基於充分知情,供應商須向家長提出詳細聲明揭露該應用程式之年齡分級、內容描述、個資之收集與共享情況,以及開發者保護用戶資料之措施等內容,且於前述內容發生重大變更時通知家長並重新取得同意。 應用程式開發者(下稱開發者)亦須向供應商提供準確的資訊,並於應用程式發生「重大變更」時及時通知供應商,及透過數據共享機制驗證其猶他州用戶的年齡以及未成年用戶的家長同意狀態。若開發者善意信賴供應商所提供的年齡及同意資訊行事,可豁免承擔違規責任(安全港機制),爰本法主要的問責對象為供應商。 前述核心義務將於2026年5月6日起生效,若供應商或開發者提供不實資訊,將構成欺騙性交易行為而受到追訴;且自2026年12月31日起,若未成年人因供應商或開發者違反本法規定而受到損害,其本人或家長將有權提起民事訴訟請求賠償。

TOP