新加坡律政部向國會提交著作權法新法草案

  新加坡律政部(Ministry of Law)於2021年7月6日向國會提出新的《著作權法》(Copyright Bill),以廢止和取代現行法令(Copyright Act)。新法修正了舊法關於創作、散布和使用方式的規定,讓法令更與時俱進以完善新加坡的著作權保護。此外,新法簡化法條用語,使其更容易理解。

  新法的特點有:

1.為創作者引入新的權利和救濟措施,以確保著作權能夠繼續鼓勵創作並激發創造力。例如:

(1) 使用者應取得創作者或表演者的許可,始可公開地利用或在網路散布創作者或表演者的資料。此規定係賦予創作者或表演者的身分識別權,有助於個人創作者和表演者建立起自己的聲譽。

(2) 除合約另有規定,受託製作攝影、肖像、版畫、錄音和影片的著作權歸屬於創作者,此規定迥異於目前乃委託者擁有著作權。新法的規定,使創作者有更好的條件與委託者談判,並可將其作品商業化。

2.對著作權人之權利制定「允許使用」(permitted uses)的例外,擴大著作的使用權,以利著作造福社會並且支持創新。例如:

(1) 倘係合法取得著作(如未規避付費牆paywall),則可將該著作用於資料計算分析(computational data analysis),如情感分析、文本和資料探勘(text and data mining),或訓練機器學習,而無需向每個著作權人取得許可,新規定對研究和創新將有助益。

(2) 教師和學生如果確認資料來源為合法時,可以在教育活動中(如居家學習)使用免費的網路資料。惟知悉來源有侵犯著作權時,則應停止使用。

3.此外,現行法令針對販賣或提供盜版視訊盒(set-top box)的業者,未清楚規定是否應負責,新的《著作權法》則明文著作人得追究販售、宣傳或散布違法且侵權設備或服務而牟利的業者。

  新法若經國會通過,預計於2021年11月可實施該法大部分條款。

相關連結
※ 新加坡律政部向國會提交著作權法新法草案, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8715&no=55&tp=1 (最後瀏覽日:2025/11/24)
引註此篇文章
你可能還會想看
歐盟國家推動智慧防救災下之資料開放、運用與傳遞法制政策研析

日本人工智慧(AI)發展與著作權法制互動課題之探討

  日本著作權法第2條第1項第1款規定對著作物定義中,創作性之表現必須為具有個人個性之表現,日本對於無人類行為參與之人工智慧創作物,多數意見認定此種產品無個性之表現,非現行著作權法所保護之產物。人工智慧之侵權行為在現行法的解釋上,難以將人工智慧解釋其本身具有「法人格」,有關人工智慧「締結契約」之效力為「人工智慧利用人」與「契約相對人」間發生契約之法律效果。日本政府及學者對人工智慧之探討,一般會以人工智慧學習用資料、建立資料庫人工智慧程式、人工智慧訓練/學習完成模型、人工智慧產品四個區塊加以探討。日本政策上放寬著作權之限制,使得著作物利用者可以更加靈活運用。為促進著作之流通,在未知著作權人之情況下,可利用仲裁系統。在現今資訊技術快速成長的時代,面對人工智慧的浪潮,日本亦陸續推出相關人工智慧研發等方針及規範,對於爾後之發展值得參酌借鏡。

美國法院推翻過去電子郵件監視案件之判決立場

  美國上訴法院於八月於判決中指出,電子郵件服務提供者未經使用者同意對於其傳送、接收之電子郵件加以監視,應為犯罪行為,即使服務提供者僅利用使用者經由其伺服器傳送郵件時的自動暫存過程進行監視,亦構成未經使用者同意的「攔截」 (intercept) 行為,違反監聽法 (Wiretap Act) ,而構成犯罪,推翻該國法院過去所建立「電子郵件服務提供者未經使用者同意監視使用者電子郵件通訊,不屬違反監聽法之犯罪行為」的立場。   被上訴人 Bradford C. Councilman 是從事珍貴與絕版書籍網路建擋列表服務之 Interloc Inc. 的副總裁,該公司給與其顧客含有 "interloc.com" 網域名稱之電子郵件地址作為服務的一部份,並且提供如同電子郵件服務提供者之服務行為,本案起因於 1998 年 Bradford 指示該公司雇員透過修改郵件接收程序之方式,攔截並拷貝所有服務使用者與其競爭對手亞馬遜網路書店 (Amazon.com) 間的電子郵件通訊,亦即,所有來自 Amazon.com 的信件到達伺服器時,由於程式的運作,該信件於寄至使用者信箱前會先行複製,由 Interloc 公司員工加以閱讀。   本上訴法院之判決,乃針對電子郵件的傳送是否屬於監聽法中所謂的電子通訊 (electronic communication) 以及該公司之行為是否構成「攔截」皆作成肯定之解釋,對於電子郵件使用者隱私權之保護有指標性的影響。

OECD啟動全球首創的《開發先進人工智慧系統組織的報告框架》

2025年2月7日,經濟合作暨發展組織(Organization for Economic Cooperation and Development,OECD)正式啟動《開發先進人工智慧系統組織的報告框架》(Reporting Framework for the Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems,簡稱G7AI風險報告框架)。 該框架之目的是具體落實《廣島進程國際行為準則》(Hiroshima Process International Code of Conduct)的11項行動,促進開發先進人工智慧系統(Advanced AI Systems)的組織建立透明度和問責制。該框架為組織提供標準化方法,使其能夠證明自身符合《廣島進程國際行為準則》的行動,並首次讓組織可以提供有關其人工智慧風險管理實踐、風險評估、事件報告等資訊。對於從事先進人工智慧開發的企業與組織而言,該框架將成為未來風險管理、透明度揭露與國際合規的重要依據。 G7 AI風險報告框架設計,對應《廣島進程國際行為準則》的11項行動,提出七個核心關注面向,具體說明組織於AI系統開發、部署與治理過程中應採取之措施: 1. 組織如何進行AI風險識別與評估; 2. 組織如何進行AI風險管理與資訊安全; 3. 組織如何進行先進AI系統的透明度報告; 4. 組織如何將AI風險管理納入治理框架; 5. 組織如何進行內容驗證與來源追溯機制; 6. 組織如何投資、研究AI安全與如何降低AI社會風險; 7. 組織如何促進AI對人類與全球的利益。 為協助G7推動《廣島進程國際行為準則》,OECD建構G7「AI風險報告框架」網路平台,鼓勵開發先進人工智慧的組織與企業於2025年4月15日前提交首份人工智慧風險報告至該平台(https://transparency.oecd.ai/),目前已有包含OpenAI等超過15家國際企業提交報告。OECD亦呼籲企業與組織每年定期更新報告,以提升全球利益相關者之間的透明度與合作。 目前雖屬自願性報告,然考量到國際監理機關對生成式AI及高風險AI 系統透明度、可問責性(Accountability)的日益關注,G7 AI風險報告框架內容可能成為未來立法與監管的參考作法之一。建議企業組織持續觀測國際AI治理政策變化,預做合規準備。

TOP