資訊揭露立場分歧:著作權集體管理團體條例修正草案

  著作權集體管理團體條例(集管條例)自2010年2月10日公布施行以來,終於今年(2019)5月中旬展開修法公聽會,智慧局提出三大項修法目的:「一、強化專責機關監督輔導;二、提升集管團體公信力與透明度;三、健全著作權授權市場環境。」依此分別提出修正條文。

  其中,關於集管團體的財務治理透明化的規定,智慧局參考歐盟指令與德國集管條例,增訂集管團體之資產負債表、收支決算表、現金流量表等財務報表之揭露的法律義務(修正第21條第1項),且「應上網供公眾查閱」(增訂第22條第2項),係為建立集管團體公信力並強化良善治理與健全體質。

  在場集管團體持不同意見,認集管團體僅係對身為會員的權利人以及利用人負責,且每年均已被主管機關與會員檢視相關報表,似無公開上網讓不特定大眾開放查閱之理。利用人則提出「重複管理」是須要被解決的議題,以授權移轉的實務問題舉例,故希望未來修新法有即時性的權利與管理的資訊揭露。權利人則反應授權金分配不透明,建議以資訊化的方式讓報酬分配機制透明化,並可應用區塊鍊技術達成之。

相關連結
※ 資訊揭露立場分歧:著作權集體管理團體條例修正草案, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8243&no=16&tp=1 (最後瀏覽日:2025/12/13)
引註此篇文章
你可能還會想看
歐盟公布人工智慧白皮書

  歐盟執委會於2020年2月19日發表《人工智慧白皮書》(White Paper On Artificial Intelligence-A European approach to excellence and trust)指出未來將以「監管」與「投資」兩者並重,促進人工智慧之應用並同時解決該項技術帶來之風險。   在投資方面,白皮書提及歐洲需要大幅提高人工智慧研究和創新領域之投資,目標是未來10年中,每年在歐盟吸引超過200億歐元關於人工智慧技術研發和應用資金;並透過頂尖大學和高等教育機構吸引最優秀的教授和科學家,並在人工智慧領域提供世界領先的教育課程。   而在監管方面,白皮書提到將以2019年4月發布之《可信賴之人工智慧倫理準則》所提出之七項關鍵要求為基礎,未來將制定明確之歐洲監管框架。在監管框架下,應包括下列幾個重點:1.有效實施與執行現有歐盟和國家法規,例如現行法規有關責任歸屬之規範可能需要進一步釐清;2.釐清現行歐盟法規之限制,例如現行歐盟產品安全法規原則上不適用於「服務」或是是否涵蓋獨立運作之軟體(stand-alone software)有待釐清;3.應可更改人工智慧系統之功能,人工智慧技術需要頻繁更新軟體,針對此類風險,應制定可針對此類產品在生命週期內修改功能之規範;4.有效分配不同利害關係者間之責任,目前產品責任偏向生產者負責,而未來可能須由非生產者共同分配責任;5.掌握人工智慧帶來的新興風險,並因應風險所帶來之變化。同時,白皮書也提出高風險人工智慧應用程式的判斷標準與監管重點,認為未來應根據風險來進行不同程度之監管。執委會並透過網站向公眾徵求針對《人工智慧白皮書》所提出建議之諮詢意見,截止日期為2020年5月19日。

世界衛生組織發布人工智慧於健康領域之監管考量因素文件,期能協助各國有效監管健康領域之人工智慧

世界衛生組織(World Health Organization, WHO)於2023年10月19日發布「人工智慧於健康領域之監管考量因素」(Regulatory considerations on artificial intelligence for health)文件,旨在協助各國有效監管健康領域之人工智慧,發揮其潛力同時最大限度地降低風險。本文件以下列六個領域概述健康人工智慧之監管考量因素: (1)文件化與透明度(Documentation and transparency) 開發者應預先規範(pre-specifying)以及明確記錄人工智慧系統(以下簡稱AI系統)之預期醫療目的與開發過程,如AI系統所欲解決之問題,以及資料集之選擇與利用、參考標準、參數、指標、於各開發階段與原始計畫之偏離及更新等事項,並建議以基於風險之方法(Risk-based approach),根據重要性之比例決定文件化之程度、以及AI系統之開發與確效紀錄之保持。 (2)風險管理與AI系統開發生命週期方法(Risk management and AI systems development lifecycle approaches) 開發者應在AI系統生命之所有階段,考慮整體產品生命週期方法(total product lifecycle approach),包括上市前開發管理、上市後監督與變更管理。此外,須考慮採用風險管理方法(risk management approach)來解決與AI系統相關之風險,如網路安全威脅與漏洞(vulnerabilities)、擬合不足(underfitting)、演算法偏差等。 (3)預期用途、分析及臨床確效(Intended use, and analytical and clinical validation) 開發者應考慮提供AI系統預期用途之透明化紀錄,將用於建構AI系統之訓練資料集組成(training dataset composition)之詳細資訊(包括大小、設定與族群、輸入與輸出資料及人口組成等)提供給使用者。此外,可考慮透過一獨立資料集(independent dataset)之外部分析確效(external analytical validation),展示訓練與測試資料以外之效能,並考慮將風險作為臨床確效之分級要求。最後,於AI系統之上市後監督與市場監督階段,可考慮進行一段期間密集之部署後監督(post-deployment monitoring)。 (4)資料品質(Data quality) 開發者應確認可用資料(available data)之品質,是否已足以支援AI系統之開發,且開發者應對AI系統進行嚴格之預發布評估(pre-release evaluations),以確保其不會放大訓練資料、演算法或系統設計其他元素中之偏差與錯誤等問題,且利害關係人還應考慮減輕與健康照護資料有關之品質問題與風險,並繼續努力創建資料生態系統,以促進優質資料來源之共享。 (5)隱私與資料保護(Privacy and data protection) 開發者於AI系統之設計與部署過程中,應考慮隱私與資料保護問題,並留意不同法規之適用範圍及差異,且於開發過程之早期,開發者即應充分瞭解適用之資料保護法規與隱私法規,並應確保開發過程符合或超過相關法規要求。 (6)參與及協作(Engagement and collaboration) 開發者於制定人工智慧創新與部署路線圖之期間,需考慮開發可近用且具有充足資訊之平台,以於適合與適當情況下促進利害關係人間之參與及協作;為加速人工智慧領域實務作法之進化,透過參與及協作來簡化人工智慧監管之監督流程即有必要。

歐洲議會針對3D列印技術所涉及的智財權及相關法律責任提出意見

  「數位轉型監視站(the Digital Transformation Monitor)」為歐盟執委會中小企業執行機構(Executive Agency for Small and Medium-sized Enterprise, EASME)所資助執行的一項計畫,主要是研析數位轉型發展與知識並提供政策提案,3D列印技術為其計畫知識庫鎖定的項目之一。去(2017)年11月23日歐洲議會法律事務委員會(the European Parliament’s Committee on Legal Affairs)公告一份關於3D列印技術之智財權及法律責任之意見書(Working Document on three-dimensional printing, a challenge in the fields of intellectual property rights and civil liability,下簡稱意見書),提出3D列印技術對產業界所帶來的影響,範圍包括:醫療、航太、以及汽車零組件、玩具、電器等產品製造,甚至涉及古文物之修復、考古等。   該意見書點出智財權與法律責任兩個關鍵議題,前者係考量當物品透過數位設計,其後續將可能產生無數次的調修或應用,為了從根本上預防仿製造成侵權,應發展合法之3D列印服務,確保作者得到公平報酬;後者則基於3D列印技術包括數位及實體兩層面,個人可透過線上編修檔案,而開啟了大眾參與創新之生產形式,然而當有人被3D列印產品侵害權益,該由產品製造者、3D列印機生產者、或者是軟體創作者負起責任?   此意見書雖未提出具體解決方式,但試著勾勒出可能的緩解方案,包括:建置全球資料庫以使具著作權保護的3D物品受到重製管制;規範合法之私製3D物品次數以避免違法重製;施行3D列印稅以補償智財所有權人之損失等。儘管3D列印技術未使一般傳統製造業造成巨大影響,但其所衍生的相關問題,未來是否需要專為3D列印技術制定新歐盟法規或者在現行法規之下特例規範,仍值得持續觀察。 「本文同步刊登於TIPS網站(https://www.tips.org.tw)」

拜登政府宣布採取促進負責任AI創新之新行動,以保護美國人民權利與安全

拜登政府於2023年5月4日宣布將採取促進負責任AI創新之新行動,表示公司於部署或公開其產品前,應致力於降低AI風險,並強調風險管理與保障措施的重要性,以防止AI對個人與社會造成潛在危害。此外,拜登總統於2月簽署「透過聯邦政府進一步推動種族平等和支持弱勢群體」行政命令(Executive Order on Further Advancing Racial Equity and Support for Underserved Communities Through The Federal Government),指示聯邦政府機關在設計和使用AI等新技術時,應避免偏見,並保護公眾免受演算法歧視。促進負責任AI創新之新行動包括: 一、投資負責任AI的研發 美國國家科學基金會(National Science Foundation)宣布撥款1.4億美元以啟動7個新的國家AI研究所,未來全美將有25個國家級AI研究所。除有助於促進公私部門之間合作外,將強化AI研發基礎設施、支持多元化AI勞動力發展,及推動氣候、農業、能源、公共衛生、教育與資安等關鍵領域之突破。 二、公開評估現有的生成式AI系統(generative AI systems) Anthropic、Google、Hugging Face、微軟、NVIDIA、OpenAI和Stability AI等領先AI開發商將參與AI系統獨立公開評估,以評估其模型是否符合AI權利法案藍圖(Blueprint for an AI Bill of Rights),及AI風險管理框架(AI Risk Management Framework)所提出之原則與實踐,並使企業及開發人員能就所發現問題,進一步採取解決措施。 三、提出政策引導聯邦政府減輕AI風險及提升AI利用機會 美國行政管理預算局(Office of Management and Budget)宣布,將於2023年夏季發布有關聯邦政府機關各部門使用AI系統之政策指引草案,並徵詢公眾意見。

TOP