蘋果電腦(Apple)被判專利侵權須賠償美金1900萬元

  蘋果電腦(Apple)於2009年4月23日被美國德州東區地方法院判定侵害OPTi 公司之專利並且必須賠償美金$1900萬元。此項專利涉及記憶體之”predictive snooping” 技術。陪審團並認為蘋果電腦之行為構成故意侵權。蘋果電腦雖主張OPTi 公司之專利為無效,但此抗辯不為法院所採納。

 

  OPTi 公司自2003年開始即放棄其原有的製造與販賣產品的生意,改經藉由提起侵權訴訟來獲取利益。除了控告蘋果電腦外,OPTi 公司也針對其”predictive snooping” 專利技術於同一法院對AMD 公司提出類似的專利侵權訴訟。由蘋果電腦此次被判敗訴來看,OPTi 公司似乎已準備好擴大藉由它所擁有的predictive snooping” 技術專利以提起訴訟的方式來獲取授權收益。如同以往,蘋果電腦未對此次被判侵權賠償做出任何評論。

相關連結
※ 蘋果電腦(Apple)被判專利侵權須賠償美金1900萬元, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?no=57&tp=1&d=3068 (最後瀏覽日:2026/01/20)
引註此篇文章
你可能還會想看
以色列發布人工智慧監管與道德政策

以色列創新、科學及技術部(Ministry of Innovation, Science and Technology)於2023年12月17日公布以色列首個關於人工智慧的監管和道德政策,在各行各業將人工智慧作為未來發展方向的趨勢下,以多元、協作、原則、創新的理念為其導向,為了化解偏見、人類監督、可解釋性、透明度、安全、問責和隱私所帶來的衝擊,以色列整合政府部門、民間組織、學術界及私部門互相合作制定政策,以求解決人工智慧的七個挑戰,帶領以色列與國際接軌。 該人工智慧政策提出具體政策方向以制定措施,其中具有特色的三項為: 1. 軟性監管:人工智慧政策採取軟性監管制度,以OECD人工智慧原則(OECD AI Principles)為基礎,採行制定標準、監督與自律等方式促進人工智慧永續發展,注重以人為本的道德原則,強調創新、平等、可靠性、問責性。 2. 人工智慧政策協調中心(AI Policy Coordination Center):邀集專家學者成立跨部門的人工智慧政策協調中心,進行人工智慧政策研議,向政府部門監管提出建言,為人工智慧的開發使用建立風險管理,並代表國家參與國際論壇。 3. 公眾參與及國際合作:政府機關與監管機構舉辦人工智慧論壇,提出人工智慧的議題與挑戰,邀請相關人士參與討論,並積極參與國際標準制定,進行國際合作。 我國科技部在2019年邀集各領域專家學者研議提出「人工智慧科研發展指引」,強調以人為本、永續發展、多元包容為核心,以八大指引為標竿,推動人工智慧發展。我國已有跨部會溝通會議對於人工智慧法制政策進行研討,可觀察各國軟性監管措施作為我國人工智慧風險管理及產業政策參考,與國際脈動建立連結。

英國政府提交予國會「人工智慧監管規範政策報告」

  英國政府由數位文化媒體與體育大臣(Secretary of State for Digital, Culture, Media and Sport)與商業能源與工業策略大臣(Secretary of State for Business, Energy and Industrial Strategy)代表,於2022年7月18日提交予國會一份「人工智慧監管規範政策報告」(AI Regulation Policy Paper)。內容除定義「人工智慧」(Artificial Intelligence)外,並說明未來政府建立監管框架的方針與內涵。   在定義方面,英國政府認為人工智慧依據具體領域、部門之技術跟案例有不同特徵。但在監管層面上,人工智慧產物則主要包含以下兩大「關鍵特徵」,造成現有法規可能不完全適用情形: (1)具有「適應性」,擅於以人類難以辨識的意圖或邏輯學習並歸納反饋,因此應對其學習方式與內容進行剖析,避免安全與隱私問題。 (2)具有「自主性」,擅於自動化複雜的認知任務,在動態的狀況下持續判斷並決策,因此應對其決策的原理原則進行剖析,避免風險控制與責任分配問題。   在新監管框架的方針方面,英國政府期望所提出的監管框架依循下列方針: (1)針對技術應用的具體情況設計,允許監管機構根據其特定領域或部門制定和發展更詳細的人工智慧定義,藉以在維持監管目標確定與規範連貫性的同時,仍然能實現靈活性。 (2)主要針對具有真實、可識別與不可接受的風險水準的人工智慧應用進行規範,以避免範圍過大扼殺創新。 (3)制定具有連貫性的跨領域、跨部門原則,確保人工智慧生態系統簡單、清晰、可預測且穩定。 (4)要求監管機構考量更寬鬆的選擇,以指導和產業自願性措施為主。   在跨領域、跨部門原則方面,英國政府則建議所有針對人工智慧的監管遵循六個總體性原則,以保障規範連貫性與精簡程度。這六個原則是基於經濟合作暨發展組織(OECD)的相關原則,並證明了英國對此些原則的承諾: 1.確保人工智慧技術是以安全的方式使用 2.確保人工智慧是技術上安全的並按設計運行 3.確保人工智慧具有適當的透明性與可解釋性 4.闡述何謂公平及其實施內涵並將對公平的考量寫入人工智慧系統 5.規範人工智慧治理中法律主體的責任 6.釋明救濟途徑   除了「人工智慧監管政策說明」外,英國政府也發布了「人工智慧行動計畫」(AI Action Plan)文件,彙整了為推動英國「國家人工智慧策略」(National AI Strategy)而施行的相關行動。前述計畫中亦指出,今年底英國政府將發布人工智慧治理白皮書並辦理相關公聽會。

何謂「監理沙盒」?

  沙盒(Sandbox)是一個讓小孩可以安全遊玩與發揮創意的場所,在電腦科學領域,沙盒則是用來代稱一個封閉而安全的軟體測試環境。而監理沙盒(Regulatory Sandbox),則是在數位經濟時代,為因應各種新興科技與新商業模式的出現,解決現行法規與新興科技的落差,故透過設計一個風險可控管的實驗場域,提供給各種新興科技的新創業者測試其產品、服務以及商業模式的環境。   在監理沙盒當中,業者將暫時享有法規與相關責任的豁免,減低法規遵循風險,以使業者能夠盡可能地測試其技術、服務或商業模式。透過在測試過程中與監管者(通常為政府主管機關)的密切互動合作,針對在測試過程中所發現或產生的技術、監管或法規問題,一同找出可行的解決方案,並作為未來主管機關與立法者,修改或制定新興科技監管法規的方向跟參考。   監理沙盒一詞源自英國在2014年因應Fintech浪潮所推動的金融科技創新計畫,而類似的概念也出現在日本2014年修正產業競爭力強化法當中的灰色地帶消除制度與企業實證特例制度。我國則於2017年通過金融科技發展與創新實驗條例,為我國監理沙盒的首例,2018年我國持續推動世界首創的無人載具科技創新實驗條例立法,為我國建構更有利於產業創新的法制環境。

德國公布商業無人機新規範,加強操作安全及隱私保護

  隨著資通訊技術與網路科技整合,無人機熱潮在全球各地崛起,相關創新應用蓬勃發展,產業規模也因此快速擴張,然而國內外不斷傳出多起無人機意外事件,相關操作規範及隱私等法律議題也備受矚目。   德國聯邦交通部於2017年1月18日公布無人機新規範,以提升無人機操作安全,防止碰撞等意外事件,並加強隱私保護。所謂無人機即搖控飛行器,德國航空法上之定義包括模型飛機及無人航空系統設備,前者係用於私人娛樂或體育競賽,其餘飛行器,尤其是商業用途,則歸屬於後者,本次規範重點如下: 1.特定模型飛機場域內的操作規定,不受本次規範修訂影響,惟必須於操作之飛行器上標示所有人之姓名及地址供辨識。 2.超過0.25公斤之無人機或模型飛機,有標示所有人之姓名及地址供辨識之義務。 3.超過2公斤之無人機或模型飛機操作者,必須通過聯邦航管局技能測試或取得飛行運動協會核發之技能證書。 4.超過5公斤之無人機或模型飛機,必須額外取得各邦民航局之許可。 5.除特定模型飛機場域內,或例外經由各邦民航局申請核可者外,飛行高度不得超過100公尺。一般而言,應於視線範圍內飛行,但未來將可能適度放寬,以利商業無人機之運用發展。 6.無人機或模型飛機應避免與其他無人機碰撞。 7.禁止造成各種障礙或危險之飛行行為。 8.禁止商業無人機或模型飛機在敏感區域飛行,例如憲法機構、聯邦或各邦機關、警消救災範圍、人群聚集區、主要交通幹道、機場起降區。 9.超過0.25公斤之無人機或模型飛機,或配備光學、聲音、無線電信號發送或記錄設備之飛行器不得在住宅區飛行。   近來幾起無人機入侵機場事件造成嚴重飛安威脅,相關碰撞意外新聞也不斷頻傳。為兼顧生命財產安全及促進新興技術發展,有必要進行適度合理監管及預防措施,並加強操作安全及隱私教育,以降低危害風險,並於意外或違規事件發生後,得以追究肇事者相關法律責任。

TOP