美國著作權法109(a)條「第一次銷售原則」之適用原則

  美國最高法院於2010年12月13日以4:4的平手票數確立了第九巡迴上訴法院於Omega, S.A. v. Costco Wholesale Corporation案中關於著作權法109(a)條「第一次銷售原則」(first sale doctrine) 並不適用於享有美國著作權法保護之外國製造但未經授權於美國再販售之產品。



  此案源於由知名瑞士鐘錶品牌Omega 於瑞士製造的手錶透過所謂「水貨」或「灰色市場」的途徑輾轉由一家名為ENE Limited的紐約公司所購得,而Costco自該公司購得手錶後於加州賣場以低於合法代理商的價格販售。然而,Omega雖對於該手錶於外國的初次販售給予授權,但並未授權該商品爾後輸入美國並由 Costco 販賣之行為。Omega乃對Costco提出侵權告訴,而此案所牽連的著作物即為手錶底面都刻有受美國著作權法所保護之「歐米茄全球設計(Omega Globe Design)」字樣。



  Costco則以著作權法第109(a)條作為抗辯,主張「第一次銷售原則」之規定,亦即Omega首次於外國販售該手錶之行為,已排除其對於後續散布、進口及未經授權之銷售等行為之侵權主張。第一審法院聽取Costco 之意見,Omega 乃上訴於第九巡迴法院。上訴法院對於「第一次銷售原則」之適用較為限縮,認為先前Quality King案的判決,並未使上訴法院對於「第109(a)條,只有當該主張涉及在美國國內製造受美國著作權法保護之著作的重製物時,可以對抗第 106(3)條(公開散布權)及第602(a)條(輸入權)」之一般規定無效。換言之「第一次銷售原則」並不適用於銷售外國製造但未經授權於美國再販售的著作物或其合法重製物。而最高法院亦同意上訴法院的看法。此案的判決結果意味著作權人或合法代理商將可間接防止或控制於外國製造的真品(即水貨)未經授權輸入於美國市場。

相關連結
※ 美國著作權法109(a)條「第一次銷售原則」之適用原則, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=5437&no=86&tp=1 (最後瀏覽日:2025/08/21)
引註此篇文章
你可能還會想看
巴西基因改造科技管理法制簡介

日本總務省公布AI運用原則草案

  日本總務省於2016年10月起召開AI聯網社會推進會議(AIネットワーク社会推進会議),該會議於2018年7月17日公布「報告書2018─邁向促進AI運用及AI聯網化健全發展」(報告書2018-AIの利活用の促進及びAIネットワーク化の健全な進展に向けて-),提出「AI應用原則草案」(AI利活用原則案)。   「AI應用原則草案」制定目的在於促進AI開發及運用,藉由AI聯網環境健全發展,實現以人為中心之「智連社會」(Wisdom Network Society:WINS),其規範主體包括︰AI系統利用者、AI服務提供者、最終利用者(以利用AI系統和服務為業)、AI網路服務提供者、離線AI服務提供者、商業利用者、消費者利用者、間接利用者、資料提供者、第三者和開發者;草案內並根據上開規範對象間關係,整理各種AI運用情境,最終提出「適當利用」、「適當學習」、「合作」、「安全」、「資安」、「隱私」、「尊嚴自律」、「公平性」、「透明性」、「歸責」等十大AI應用原則。總務省表示將持續檢討完善AI應用原則草案細節,以「利用手冊」等形式公布,提供民眾參考。   行政院於2018年初推出「台灣AI行動計畫」,將整合5+2創新產業方案,由相關部會協助發展100個以上的AI應用解決方案,日本總務省所整理之AI應用情境與研提之應用原則,或可作為我國未來推動AI發展之參考。

論網路環境下的通訊監察法制

美國情報體系發布「情報體系運用人工智慧倫理架構」

  美國國家情報體系(United States Intelligence Community)係於1981年依據行政命令第12333號(Executive Order 12333)所建立,其任務為蒐集、分析與提供外國情報與反情報資訊美國國家領導人,服務對象包含美國總統、執法單位以及軍事單位。其於2020年6月提出「情報體系人工智慧倫理架構」(Artificial Intelligence Ethics Framework for the Intelligence Community),為人工智慧系統與訓練資料、測試資料之採購、設計、研發、使用、保護、消費與管理提出指引,並指出人工智慧之利用須遵從以下事項: 一、於經過潛在風險評估後,以適當且符合目的之方法利用; 二、人工智慧之使用應尊重個人權利與自由,且資料取得應合法且符合相關政策與法規之要求; 三、應於利用程序內結合人類判斷與建立問責機制,以因應AI產品之風險並確保其決策之適當性。 四、於不破壞其功能與實用性之前提下,盡可能確認、統計以及降低潛在之歧視問題。 五、AI進行測試時應同時考量其未來利用上可預見之風險。 六、持續維持AI模型之迭代(Iteration)、版本與改動之審查。 七、AI之建立目的、限制與設計之輸出項目,應文件化。 八、盡可能使用可解釋與可理解之方式,讓使用者、審查者與公眾理解為何AI會產出相關決策。 九、持續不定期檢測AI,以確保其符合當初建置之目的。 十、確認AI於產品循環中各階段之負責人,包含其維護相關紀錄之責任。

TOP