何謂「孤兒著作」?

  「孤兒著作」係指仍在著作權保護期間,但是著作權人不明知著作。依著作權法第10條規定,著作人於著作完成時享有著作權,而著作權之保護期間依著作權法第30條第1項存續於著作權人之生存其間及其死亡後之50年。

  在網路普及資訊流通快速之現代,經過不斷的轉載,許多著作權人不明,但是仍受著作權法保護,所謂之「孤兒著作」在市面上不斷流通。此時若與利用孤兒著作,但是不知道著作權人是誰,無法取得授權之情形下,要怎麼辦才不會觸法?

  此時依文化創意發展法第24條,想要利用孤兒著作之人,得在盡力尋找著作權人未果後(不知著作權人為何或是著作權人聯繫資訊不明知情形),向智財局說明無法取得授權之原因,並提存一定金額,取得智財局之許可授權後,於許可範圍內利用該著作。又須提存之金額應與一般著作經自由磋商所應支付合理之使用報酬相當。

本文為「經濟部產業技術司科技專案成果」

※ 何謂「孤兒著作」? , 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7586&no=55&tp=1 (最後瀏覽日:2026/04/13)
引註此篇文章
你可能還會想看
德國提出「新冠肺炎及新型冠狀病毒預防接種法」草案,以利疫苗分配之政策規劃及法制基礎

  德國聯邦健康部(Bundesministerium für Gesundheit, BMG)於2020年12月15日提出「新冠肺炎及新型冠狀病毒預防接種法」(Gesetzes zur Priorisierung bei der Schutzimpfung gegen das Corona-virus SARS-CoV-2, Coronavirus-Impfgesetz)草案,現進入聯邦參議院審議階段。該草案之立法目的在於,確認新冠肺炎及新型冠狀病毒(Coronavirus SARS-CoV-2)疫苗分配的公平性,並藉此降低嚴重疾病與死亡人數。   原則上凡屬於法定健康保險的被保險人,或於德意志聯邦共和國內有住所或長期居留者,得依據新冠肺炎及新型冠狀病毒預防接種法規定,具有接種新冠肺炎及新型冠狀病毒疫苗之權利。然而,由於疫苗的分配涉及基本法第2條第2項第1句生命及身體安全的基本權利(Grundrecht auf Leben und körperliche Unversehrtheit),以及衡酌疫苗資源的有限性問題,該法第3條依據風險群體(Risikogruppen)及適應症群體(Indikationsgruppen)共區分六級的接種優先順序,如違反接種優先順序者,將可能面臨最高三萬元的罰鍰,意圖營利者則將可能面臨一年至五年的有期徒刑。

從間諜軟體談起

美國加州公共事業委員會提出自動駕駛車輛試點計畫

  加州公共事業委員會(California Public Utilities Commission, CPUC)提出自駕車試點計畫,允許在未有配置人類駕駛之情況下測試自駕車,此次計畫包含兩個試點項目,將於5月被五人委員會審核,並決定是否批准。   第一個試點項目允許參與廠商之自駕車上路測試,並須配置經培訓的人類駕駛於自駕車內,以應付隨時的突發狀況;第二個試點項目則允許無人駕駛之自駕車上路測試,惟在無人類駕駛隨車之情況,必須符合加州機動車輛管理局(Department of Motor Vehicles, DMV)之規定,如遠端監控車輛狀態及操作,以保障乘客安全。   參與廠商必須定期向CPUC及DMV繳交營運報告,包含測試期間車輛碰撞(collision)及解除自動駕駛(disengagement)次數。   此次試點計畫已開放廠商申請,科技大廠及叫車服務公司如Google、Tesla、Uber以及Lyft等目前亦已正進行自駕車之設計與測試。若此提案通過,CPUC將進一步規劃自駕車載客服務之相關辦法,使自駕車測試之法制更臻完善。

美國國家標準暨技術研究院發布「人工智慧風險管理框架:生成式AI概況」

  美國國家標準暨技術研究院(National Institute of Standard and Technology, NIST)2024年7月26日發布「人工智慧風險管理框架:生成式AI概況」(Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile),補充2023年1月發布的AI風險管理框架,協助組織識別生成式AI(Generative AI, GAI)可能引發的風險,並提出風險管理行動。GAI特有或加劇的12項主要風險包括: 1.化學、生物、放射性物質或核武器(chemical, biological, radiological and nuclear materials and agents, CBRN)之資訊或能力:GAI可能使惡意行為者更容易取得CBRN相關資訊、知識、材料或技術,以設計、開發、生產、使用CBRN。 2.虛假內容:GAI在回應輸入內容時,常自信地呈現錯誤或虛假內容,包括在同一情境下產出自相矛盾的內容。 3.危險、暴力或仇恨內容:GAI比其他技術能更輕易產生大規模煽動性、激進或威脅性內容,或美化暴力內容。 4.資料隱私:GAI訓練時需要大量資料,包括個人資料,可能產生透明度、個人資料自主權、資料違法目的外利用等風險。 5.環境影響:訓練、維護和運行GAI系統需使用大量能源而影響碳排放。 6.偏見或同質化(homogenization):GAI可能加劇對個人、群體或社會的偏見或刻板印象,例如要求生成醫生、律師或CEO圖像時,產出女性、少數族群或身障人士的比例較低。 7.人機互動:可能涉及系統與人類互動不良的風險,包括過度依賴GAI系統,或誤認GAI內容品質比其他來源內容品質更佳。 8.資訊完整性:GAI可能無意間擴大傳播虛假、不準確或誤導性內容,從而破壞資訊完整性,降低公眾對真實或有效資訊的信任。 9.資訊安全:可能降低攻擊門檻、更輕易實現自動化攻擊,或幫助發現新的資安風險,擴大可攻擊範圍。 10.智慧財產權:若GAI訓練資料中含有受著作權保護的資料,可能導致侵權,或在未經授權的情況下使用或假冒個人身分、肖像或聲音。 11.淫穢、貶低或虐待性內容:可能導致非法或非自願性的成人私密影像或兒童性虐待素材增加,進而造成隱私、心理、情感,甚至身體上傷害。 12.價值鏈和組件整合(component integration):購買資料集、訓練模型和軟體庫等第三方零組件時,若零組件未從適當途徑取得或未經妥善審查,可能導致下游使用者資訊不透明或難以問責。   為解決前述12項風險,本報告亦從「治理、映射、量測、管理」四大面向提出約200項行動建議,期能有助組織緩解並降低GAI的潛在危害。

TOP