Apple 對於Psystar案件之判決

  Apple在對Psystar的法律訴訟上贏得重要的勝利,美國政府聯邦法院已判決複製品製造者Psystar於販售個人電腦時事先安裝Mac OS X作業系統,已侵犯Apple的著作權。

 

  在雙方提起簡易判決訴訟後一個月,美國地方法院法官William Alsup 表示Psystar已侵害Apple專用之重製權、散布權及衍生著作權,於判決中針對著作權侵害一事已被承認。並且確認Apple於Mac OS X產品之直接用戶授權合約,是限制使用於Apple生產的電腦,更特別禁止安裝此作業系統於其他電腦;在此同時,法官否決Psystar的論點:首次銷售原則所允許,買家可以任意使用此作業系統。 此外,法官同意Apple的聲明,Psystar侵害數位化千禧年著作權法案之反規避條款及反交易條款,另一方面,法官也否決Psystar對Apple濫用著作權的論點。

 

  此判決並未包含其他Apple所提出的主張,包括:合約的侵害、商標的侵權及商標稀釋,法官也未提出給予Apple救濟上的權利,包括先前提及之永久禁止令,要求中止Psystar販售任何帶有Apple軟體的硬體並強迫其召回所有已售出帶有此作業系統之機器。

 

  此判決對Apple而言,是決定性的勝利,但並非結束所有在法律上的爭議,12月14日將進行賠償的審訊,其餘審判也預訂於明年1月開始。

相關連結
※ Apple 對於Psystar案件之判決, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=3178&no=57&tp=1 (最後瀏覽日:2026/03/21)
引註此篇文章
你可能還會想看
中國大陸商務部《不可靠實體清單規定》

  中國大陸商務部於2020年9月19日發布「不可靠實體清單規定」(商務部令2020年第4號),作為建立對外國實體(包含外國企業、其他組織或個人)與中國大陸貿易或投資等國際經貿相關活動實施限制之依據。即便中國大陸商務部主張「不可靠實體清單規定」係為落實《對外貿易法》與《國家安全法》之要求,並未針對特定國家或特定實體,但在美中貿易對抗局勢下,仍被認為顯係針對美國商務部貿易管制規則「實體清單」的反制作為。   依據「不可靠實體清單規定」,中國大陸政府堅持獨立自主的對外政策,互相尊重主權並互不干涉內政,在平等互利的原則下,任何外國實體在國際經貿及相關活動中,凡涉及危害中國大陸國家主權、安全、發展利益,或是違反正常的市場交易原則、中斷與中國大陸企業、其他組織或個人的正常交易,或是對中國大陸企業、其他組織或個人採取歧視性措施,嚴重損害其合法權益,中國大陸即有權透過建立不可靠實體清單制度,對上述外國實體採取相應措施。   中國大陸國務院商務主管部門將設置專責組織,負責就經建議或舉報之外國實體進行調查,凡經調查而被公告列入不可靠實體清單者,中國大陸政府可採取的相應措施包含限制或禁止與中國大陸有關之進出口活動、在中國大陸境內投資、限制或禁止其相關人員或交通工具等入境、限制或取消相關人員的工作許可或居留資格、相應數額的罰款或其他必要措施。若中國大陸企業、其他組織或個人因特殊情況須與被限制之外國實體交易,應事前提出申請取得同意。

隱私暨個人資料保護與管理工具介紹(一)-隱私衝擊分析

OECD啟動全球首創的《開發先進人工智慧系統組織的報告框架》

2025年2月7日,經濟合作暨發展組織(Organization for Economic Cooperation and Development,OECD)正式啟動《開發先進人工智慧系統組織的報告框架》(Reporting Framework for the Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems,簡稱G7AI風險報告框架)。 該框架之目的是具體落實《廣島進程國際行為準則》(Hiroshima Process International Code of Conduct)的11項行動,促進開發先進人工智慧系統(Advanced AI Systems)的組織建立透明度和問責制。該框架為組織提供標準化方法,使其能夠證明自身符合《廣島進程國際行為準則》的行動,並首次讓組織可以提供有關其人工智慧風險管理實踐、風險評估、事件報告等資訊。對於從事先進人工智慧開發的企業與組織而言,該框架將成為未來風險管理、透明度揭露與國際合規的重要依據。 G7 AI風險報告框架設計,對應《廣島進程國際行為準則》的11項行動,提出七個核心關注面向,具體說明組織於AI系統開發、部署與治理過程中應採取之措施: 1. 組織如何進行AI風險識別與評估; 2. 組織如何進行AI風險管理與資訊安全; 3. 組織如何進行先進AI系統的透明度報告; 4. 組織如何將AI風險管理納入治理框架; 5. 組織如何進行內容驗證與來源追溯機制; 6. 組織如何投資、研究AI安全與如何降低AI社會風險; 7. 組織如何促進AI對人類與全球的利益。 為協助G7推動《廣島進程國際行為準則》,OECD建構G7「AI風險報告框架」網路平台,鼓勵開發先進人工智慧的組織與企業於2025年4月15日前提交首份人工智慧風險報告至該平台(https://transparency.oecd.ai/),目前已有包含OpenAI等超過15家國際企業提交報告。OECD亦呼籲企業與組織每年定期更新報告,以提升全球利益相關者之間的透明度與合作。 目前雖屬自願性報告,然考量到國際監理機關對生成式AI及高風險AI 系統透明度、可問責性(Accountability)的日益關注,G7 AI風險報告框架內容可能成為未來立法與監管的參考作法之一。建議企業組織持續觀測國際AI治理政策變化,預做合規準備。

歐盟2020年人工智慧白皮書

  歐盟執委會於2020年2月19日發布「人工智慧白皮書」(White Paper on Artificial Intelligence: a European approach to excellence and trust),以打造卓越且可信賴的人工智慧為目標。歐盟認為在推動數位轉型過程中的一切努力,均不應脫離歐盟以人為本的最高價值,包含:開放(open)、公平(fair)、多元(diverse)、民主(democratic)與信任(confident),因此在人工智慧的發展上,除了追求技術的持續精進與卓越外,打造可信賴的人工智慧亦是歐盟所重視的價值。   歐盟執委會於人工智慧白皮書中分別就如何追求「卓越」與「可信賴」兩大目標,提出具體的措施與建議。在促進人工智慧卓越方面,執委會建議的措施包含:建立人工智慧與機器人領域的公私協力;強化人工智慧研究中心的發展與聯繫;每個成員國內應至少有一個以人工智慧為主題的數位創新中心;歐盟執委會與歐洲投資基金(European Investment Fund)將率先在2020年第1季為人工智慧開發與使用提供1億歐元融資;運用人工智慧提高政府採購流程效率;支持政府採購人工智慧系統等。上述各項措施將與歐盟「展望歐洲」(Horizon Europe)科研計畫密切結合。   而在建立對人工智慧的信賴方面,執委會建議的措施則包含:建立有效控制人工智慧創新風險但不箝制創新的法規;具高風險的人工智慧系統應透明化、可追溯且可控制;政府對人工智慧系統的監管程度應不低於對醫美產品、汽車或玩具;應確保所使用的資料不帶有偏見;廣泛探討遠端生物辨識技術的合理運用等。歐盟執委會將持續徵集對人工智慧白皮書的公眾意見,並據以在2020年底前提出成員國協力計畫(Coordinated Plan)之建議。

TOP