「孤兒著作」係指仍在著作權保護期間,但是著作權人不明知著作。依著作權法第10條規定,著作人於著作完成時享有著作權,而著作權之保護期間依著作權法第30條第1項存續於著作權人之生存其間及其死亡後之50年。
在網路普及資訊流通快速之現代,經過不斷的轉載,許多著作權人不明,但是仍受著作權法保護,所謂之「孤兒著作」在市面上不斷流通。此時若與利用孤兒著作,但是不知道著作權人是誰,無法取得授權之情形下,要怎麼辦才不會觸法?
此時依文化創意發展法第24條,想要利用孤兒著作之人,得在盡力尋找著作權人未果後(不知著作權人為何或是著作權人聯繫資訊不明知情形),向智財局說明無法取得授權之原因,並提存一定金額,取得智財局之許可授權後,於許可範圍內利用該著作。又須提存之金額應與一般著作經自由磋商所應支付合理之使用報酬相當。
本文為「經濟部產業技術司科技專案成果」
針對「全國聽障協會」(National Association of Deaf, NAD)於2014年對於加州柏克萊大學提供之免費線上課程、會議、講座、表演和其他影音檔案未內建隱藏式字幕(closed captioning),向美國司法部申訴,該校違反美國身心障礙者法Americans with Disabilities Act, ADA)第二章,即收編至美國統一法典(U.S.C.)第42章第12131至第12134條,關於「提供公共服務的實體(entity)應將其服務平等地提供他人近用」相關規定,包括州行政機構、法院、立法機關、城市、郡、學校、社區大學等實體,須確保身心障礙者獲得平等機會使用州和地方政府的服務或參與其活動。 美國司法部歷經八年調查後,最終與加州柏克萊大學達成行政協議(consent decree),要求加州柏克萊大學應定期回報無障礙網站建置進度、回應公眾無障礙網站需求、內部員工相關教育訓練、定期請第三方稽核單位測試學校各平臺的無障礙網站是否達「全球資訊網協會」(World Wide Web Consortium, W3C)發布的「無障礙網站指南」2.0版(Web Content Accessibility Guidelines, WCAG 2.0)AA等級技術標準。自該協議生效日起,加州柏克萊大學以下相關網路平臺上之影音檔案,均需內建隱藏式字幕: 一、大學官網(http://www.berkeley.edu)及公眾可瀏覽且由加州柏克萊大學管理的任何相關子網域; 二、大規模線上公開課程(MOOC)平臺「UC BerkeleyX」; 三、由第三方平臺(如Apple Podcasts或Spotify)託管,加州柏克萊大學管理的所有podcast頻道或帳戶; 四、由第三方平臺(如YouTube)託管,加州柏克萊大學管理的所有影音頻道或帳戶。 從行政協議之協調方向及結果來看,加州柏克萊大學除實體環境外,和該環境具聯繫關係之網站也需要符合ADA無障礙網站規定,使得多元族群均有平等接觸社會服務和活動的機會。在數位經濟時代,各式網路活動活絡之今日,網路等線上虛擬環境與實體公共設施的無障礙同等重要;線上與線下之人權皆須獲得同等保障,亦係數位人權之真諦。
日本修正「請求揭露匿名網路霸凌者個人資料」之程序網際社群服務的普及,如Face Book、Instagram、Twitter或網路論壇,將人與人之間的社群連結從實體拓展到虛擬,社群網路的蓬勃發展充分展現言論自由,人人皆以匿名方式藏身於社群網路的保護傘下盡情抒發己見,但相對也產生層出不窮的網路霸凌事件。 日本於修正《關於特定電子通訊服務業者損害賠償責任限制及使用者資訊揭示法》(特定電気通信役務提供者の損害賠償責任の制限及び発信者情報の開示に関する法律)前,遭受匿名網路霸凌的被害人若想對加害人提起損害賠償訴訟,須同時對社群網路服務業者及網路服務供應業者聲請禁止刪除資料假處分,被害人承擔巨大的程序成本,卻仍須承擔訴訟程序中,社群網路供應商因系統保存時效屆期而自動刪除加害人IP位置資料之風險。 為了遏止頻繁的網路霸凌事件,日本國會已於2021年4月21日表決通過修正《關於特定電子通訊服務業者損害賠償責任限制及使用者資訊揭示法》,將「請求揭露匿名網路霸凌者個人資料」由原本的假處分及通常訴訟程序修正為非訟程序,被害人僅須向法院提出聲請狀,如法院判斷該聲請可特定網路服務供應業者,被害人即可請求社群網路服務業者及網路服務供應業者提供匿名誹謗者(即加害人)的姓名、地址及網路登錄紀錄。另外,為避免IP位置資訊被刪除的風險,法院可於非訟程序進行中,先命社群網路服務業者禁止刪除該IP位置資訊,大幅推進被害人程序利益之保障。
美國食品及藥物管理局推動細胞治療新指引草案增加「傘狀試驗」加速細胞產品開發美國食品及藥物管理局(U.S. Food and Drug Administration, USFDA)於2021年9月30日發佈了最新細胞與基因治療指南草案,提出細胞治療可透過「傘狀試驗」(umbrella trial)機制,使細胞治療於同一個臨床試驗計畫之下,針對同一類疾病,可進行兩種以上細胞治療技術試驗,來加速細胞治療臨床開發速度。 每個癌症病患實際上會有不同的基因變異,即使是相同類型的癌症也少有完全一樣的疾病機制(disease mechanism),因此,傳統臨床試驗僅能評估疾病機制較大族群的療效,但不同基因型的受試者對於相同藥物的反應可能有所差異,故難以預測病人是否將受益,亦或產生嚴重副作用,導致治癒效果不如預期。且現行的臨床治療規範中,即便醫師知道某標靶治療藥物對於特定基因體變異有效,但若此藥物未經USFDA核准於該腫瘤類型的適應症,醫師也無法使用。因此,透過傘狀實驗可提高細胞產品研發的靈活性與效率,並降低大量重複性工作,例如重複進行臨床前批次試驗、製程驗證、毒性測試…等等。若發生安全性疑慮,USFDA可針對個別研究組進行終止實驗,而不須將全部的臨床試驗計畫終止。 台灣未來可考慮將傘狀試驗納入細胞治療臨床試驗設計模式,並參考USFDA審核方式與標準,以加速台灣細胞治療或精準醫療發展。
歐盟「人工智慧法」達成政治協議,逐步建立AI準則歐盟「人工智慧法」達成政治協議, 逐步建立AI準則 資訊工業策進會科技法律研究所 2023年12月25日 隨著AI(人工智慧)快速發展,在各領域之應用日益廣泛,已逐漸成為國際政策、規範、立法討論之重點。其中歐盟人工智慧法案(Artificial Intelligence Act, AI Act,以下簡稱AIA法案)係全球首部全面規範人工智慧之法律架構,並於2023年12月9日由歐洲議會及歐盟部長歷史會達成重要政治協議[1],尚待正式批准。 壹、發佈背景 歐洲議會及歐盟部長理事會針對AIA法案已於本年12月9日達成暫時政治協議,尚待正式批准。在法案普遍實施前之過渡期,歐盟執委會將公布人工智慧協定(AI Pact),其將號召來自歐洲及世界各地AI開發者自願承諾履行人工智慧法之關鍵義務。 歐盟人工智慧法係歐盟執委會於2021年4月提出,係全球首項關於人工智慧的全面法律架構,該項新法係歐盟打造可信賴AI之方式,將基於AI未來可證定義(future proof definition),以等同作法直接適用於所有會員國[2]。 貳、內容摘要 AIA法案旨在確保進入並於歐盟使用之AI人工智慧系統是安全及可信賴的,並尊重人類基本權利及歐盟價值觀,在創新及權利義務中取得平衡。對於人工智慧可能對社會造成之危害,遵循以風險為基礎模式(risk-based approach),即風險越高,規則越嚴格,現階段將風險分為:最小風險(Minimal risk)、高風險(High-risk)、無法接受的風險(Unacceptable risk)、特定透明度風險(Specific transparency risk)[3]。與委員會最初建議版本相比,此次臨時協定主要新增內容歸納如下: 臨時協議確立廣泛域外適用之範圍,包含但不限於在歐盟內提供或部署人工智慧系統的企業[4]。但澄清該法案不適用於專門用於軍事或國防目的之系統。同樣,該協定規定不適用於研究和創新目的之人工智慧系統,也不適用於非專業原因之個人AI使用。 臨時協議針對通用AI(General purpose AI)[5]模型,訂定相關規定以確保價值鏈之透明度;針對可能造成系統性風險之強大模型,訂定風險管理與重要事件監管、執行模型評估與對抗性測試等相關義務。這些義務將由執委會與業界、科學社群、民間及其他利害關係人共同制定行為準則(Codes of practices)。 考量到人工智慧系統可用於不同目的之情況,臨時協議針對通用AI系統整合至高風險系統,並就基礎模型部分商定具體規則,其於投放市場之前須遵守特定之透明度義務,另強調對於情緒識別系統有義務在自然人接觸到使用這種系統時通知他們。 臨時協議針對違反禁止之AI應用,罰款金額自3,500萬歐元 或全球年營業額7%(以較高者為準)。針對違反其他義務罰款1,500萬歐元或全球年營業額3%,提供不正確資訊罰 款750萬歐元或全球年營業額1.5%。針對中小及新創企業違反人工智慧法之行政罰款將設定適當之上限。 參、評估分析 在人工智慧系統之快速發展衝擊各國社會、經濟、國力等關鍵因素,如何平衡技術創新帶來之便利及保護人類基本權利係各國立法重點。此次歐盟委員會、理事會和議會共同對其2021年4月提出之AIA法案進行審議並通過臨時協議,係歐洲各國對於現下人工智慧運作之監管進行全面的討論及認可結果,對其他國家未來立法及規範有一定之指引效果。 此次臨時協議主要針對人工智慧定義及適用範圍進行確定定義,確認人工智慧系統產業鏈之提供者及部署者有其相應之權利義務,間接擴大歐盟在人工智慧領域之管轄範圍,並對於人工智慧系統的定義縮小,確保傳統計算過程及單純軟體使用不會被無意中禁止。對於通用人工智慧基礎模型之部分僅初步達成應訂定相關監管,並對基礎模型之提供者應施加更重之執行義務。然由於涉及層面過廣,仍需業界、科學社群、民間及其他利害關係人討論準則之制定。 面對AI人工智慧之快速發展,各國在人工智慧之風險分級、資安監管、法律規範、資訊安全等議題持續被廣泛討論,財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境,將持續觀測各國法令動態,提出我國人工智慧規範之訂定方向及建議。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI,https://www.europarl.europa.eu/news/en/press-room/20231206IPR15699/artificial-intelligence-act-deal-on-comprehensive-rules-for-trustworthy-ai (last visited December 25, 2023). [2]European Commission, Commission welcomes political agreement on Artificial Intelligence Act,https://ec.europa.eu/commission/presscorner/detail/en/ip_23_6473 (last visited December 25, 2023). [3]Artificial intelligence act,P5-7,https://superintelligenz.eu/wp-content/uploads/2023/07/EPRS_BRI2021698792_EN.pdf(last visited December 25, 2023). [4]GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2 (last visited December 25, 2023). [5]General purpose AI-consisting of models that “are trained on broad data at scale, are designed for generality of output, and can be adapted to a wide range of distinctive tasks”, GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2(last visited December 25, 2023).