歐盟孤兒著作指令(Directive 2012/28/EU)立法評析

刊登期別
第25卷,第6期,2013年06月
 

※ 歐盟孤兒著作指令(Directive 2012/28/EU)立法評析, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6204&no=67&tp=1 (最後瀏覽日:2026/01/02)
引註此篇文章
你可能還會想看
美國環保署擬針對兩項奈米材料納入顯著新種使用規則

  奈米材質之特性雖有助於開發新穎產品,但對於環境與人體健康是否會造成危害,迄今仍未有定見;為避免奈米科技毫無節制地發展,2008年9月以降,美國環保署(Environmental Protection Agency,EPA)以毒性物質管制法(Toxic Substances Control Act,TSCA)管理奈米材料,並在10月底考慮將奈米碳管納入前述法規中;11月初,更進一步依據毒性物質管制法5(a)(2)發布「顯著新種使用規則(Significant New Use Rule,SNUR)」,將以矽氧烷(siloxane)所改造之奈米矽微粒(silica nanoparticles)與奈米鋁微粒(alumina nanoparticles)列入管理範圍內。   一般而言,化學物質如未列於由EPA所公佈之「化學物質目錄」者,皆應向環保署提出製造前通知(Premanufacture Notice,PMN);而顯著新種使用規則以指定特殊新種化學物質的方式,配合適用製造前通知制度,要求業界針對製造、加工、銷售與使用等過程,提出具體因應措施。申言之,關於前述兩項奈米物質,一旦涉及有別於以往的重大創新製造活動,業者即應於正式進行製造前之90天先行通報環保署,再由其評估該業者是否符合相關條件要求,否則得予以禁止或限制之。   根據環保署既有之測試資料,可以確認奈米微粒得由呼吸與皮膚接觸等方式進入人體。以矽氧烷所改造之奈米矽及奈米鋁,泰半係作為添加劑之用;然而,觀察過往製造前通知所登載之內容,該兩項化學物質無論在呼吸或皮膚接觸所造成之暴露程度尚屬輕微;因此,針對該等奈米材料而向環保署所為之通報流程及審查作業,可能會對於業者後續之生產製造活動形成不確定的阻礙。   有鑒於奈米材料可能對人體健康產生未知風險,為保障奈米工作環境中人員的安全,顯著新種使用規則將於2009年1月起正式生效,作為管理特殊化學物質的監督方式。對於製造或使用奈米材料所可能引發之風險,美國環保署正著眼於環境、健康與安全議題,逐漸採取較為謹慎的政策設計方向,以維護大眾利益。

日本內閣府召集研究小組 解決因AI帶來之智財問題

日本內閣府組成「AI時代的智慧財產權研討小組」,由東京大學副校長渡邊敏也作為主席於今(2023)年10月4日召開首次會議,為討論生成式AI(人工智慧)發展帶來的智慧財產權問題。討論主題包括法規範現況、在人類參與有限的情況下由生成式AI所產出之發明是否可以申請專利等,目標於年底前彙整、蒐集企業經營者待解決議題。亦將從其他法律的角度進行討論,例如:AI模仿商品形態是否亦受到日本《不正競爭防止法》之拘束;AI與專利之間的關係,依據日本《專利法》,專利權目前僅授予個人參與創造過程的發明,隨著AI技術的發展,預計會出現難以做出決策的情況,將討論諸如取得專利所須的人類參與程度等問題;以及擁有大量資料的權利持有者向AI開發者提供有償資料的優缺點。與會專家表示,希冀看到從鼓勵利用AI進行新創作和發明之角度出發。日本文化廳和其他相關組織亦同步討論AI生成的作品,若與現有之受著作權保護的作品相似時是否會侵害著作權之議題。 日本內閣府早先於今年5月公布「AI相關論點之初步整理」(AIに関する暫定的な論点整理),我國行政院於今年8月31日正式揭示國科會擬定之「行政院及所屬機關(構)使用生成式AI參考指引」草案,我國經濟部智慧局亦規劃研擬就AI生成物是否享有著作權或專利權、訓練資料合理使用範圍、企業強化營業秘密保護等3大面向建立AI指引,國內外AI相關指引議題均值得持續追蹤瞭解。另,企業無論是擔憂AI技術成果外洩、不慎侵害他人智財權或智財成果被生成式AI侵害之虞等,因應數位化趨勢與數位證據保全而應強化相關管理措施,資策會科法所發布之《營業秘密保護管理規範》、《重要數位資料治理暨管理制度規範(EDGS)》協助企業檢視自身管理措施之符合性並促進有效的落實管理。 本文同步刊登於TIPS網(https://www.tips.org.tw)

韓國國會議員提出著作權法修法,擬導入著作權專業人員國家證照制度

  尹官石(Youn, Kwan-Suk)等11位韓國國會議員於2013年7月16日提出著作權法修正案,修法內容包括「導入著作權專門士及資格考試等制度」、「增訂著作權保護院設立之法源依據及相關業務規定」、「著作權保護院之審議委員會之組成」、「審議及發出糾正命令之主體變更為著作權保護院」。   韓國國會議員尹官石指出,雖然韓國著作權產業規模逐漸擴大,但據統計,著作權專業人才僅1萬3533位,專業人才明顯仍然不足。再者,著作權小規模訴訟也不斷增加。另外,現在雖有營運核發著作權相關資格證書業務之民間業者,但卻存在廣告誇大、課程內容不實,缺乏事後管理機制等問題,而造成市場混亂。為解決上述問題,韓國著作權法擬導入著作權專業人員之國家資格證照制度,希望藉以有效培育著作權專業人才,讓著作權產業得以健全發展。   另一方面,影視內容和電腦軟體為韓國著作權產業之核心,其所創造之附加價值及就業機會均呈現增加的趨勢,但相對來說,韓國音樂、電影、電視劇等內容常被非法重製,而這樣的非法重製行為造成3兆9758億韓圜之生產利益損失,減少3萬6千個就業機會。對此,為更有效推動著作權保護,並使著作權保護業務推動一元化,藉以促進文化內容產業發展,著作權法擬修法整併現有的著作權保護中心和韓國著作權委員會之功能,改設著作權保護院,以統合著作權保護業務。   在此一著作權法修正案之後,韓國文化體育觀光部及其它議員亦對其它著作權議題,如擴大著作權保護及合理使用範圍等,提出修正案,因此後續韓國著作權法的修法動態,值得持續關注。

落實完善數位資料管理機制,有助於降低AI歧視及資料外洩風險

落實完善數位資料管理機制, 有助於降低AI歧視及資料外洩風險 資訊工業策進會科技法律研究所 2023年07月07日 近年來,科技快速發展,AI(人工智慧)等技術日新月異,在公私部門的應用日益廣泛,而且根據美國資訊科技研究與顧問公司Gartner在2023年5月發布的調查指出,隨著由OpenAI開發的ChatGPT取得成功,更促使各領域對於AI應用的高度重視與投入[1],與此同時,AI歧視及資料外洩等問題,亦成為社會各界的重大關切議題。 壹、事件摘要 目前AI科技發展已牽動全球經濟發展,根據麥肯錫公司近期發布的《生成式人工智慧的經濟潛力:下一個生產力前沿(The next productivity frontier)》研究報告指出,預測生成式AI(Generative AI)有望每年為全球經濟增加2.6兆至4.4兆的經濟價值[2]。同時在美國資訊科技研究與顧問公司Gartner對於超過2500名高階主管的調查中,45%受訪者認為ChatGPT問世,增加其對於AI的投資。而且68%受訪者認為AI的好處大於風險,僅有5%受訪者認為風險大於好處[3]。然而有社會輿論認為AI的判斷依賴訓練資料,將可能複製人類偏見,造成AI歧視問題,而且若程式碼有漏洞或帳戶被盜用時,亦會造成資料外洩問題。 貳、重點說明 首先,關於AI歧視問題,以金融領域為例,近期歐盟委員會副主席Margrethe Vestager強調若AI用於可能影響他人生計的關鍵決策時,如決定是否能取得貸款,應確保申請人不受性別或膚色等歧視[4],同時亦有論者認為若用於訓練AI的歷史資料,本身存有偏見問題,則可能導致系統自動拒絕向邊緣化族群貸款,在無形之中加劇,甚至永久化對於特定種族或性別的歧視[5]。 其次,關於資料外洩問題,資安公司Group-IB指出因目前在預設情況下,ChatGPT將保存使用者查詢及AI回應的訊息紀錄,若帳戶被盜,則可能洩露機敏資訊。據統計在2022年6月至2023年5月間,在亞太地區有近41000個帳戶被盜,而在中東和非洲地區有近25000個帳戶被盜,甚至在歐洲地區也有近17000個帳戶被盜[6]。另外在2023年3月時,ChatGPT除了發生部分用戶能夠檢視他人聊天紀錄標題的問題外,甚至發生個人資料外洩問題,即用戶可能知悉他人的姓名、電子郵件,付款地址,信用卡到期日及號碼末四碼等資料[7]。 參、事件評析 對於AI歧視及資料外洩等問題,應透過落實完善數位資料治理與管理機制,以降低問題發生的風險。首先,在收集訓練資料時,為篩選適合作為模型或演算法基礎的資料,應建立資料評估或審查機制,減少或避免使用有潛在歧視問題的資料,以確保分析結果之精確性。 其次,不論對於訓練資料、分析所得資料或用戶個人資料等,均應落實嚴謹的資料保密措施,避免資料外洩,如必須對於資料進行標示或分類,並依照不同標示或分類,評估及採取適當程度的保密措施。同時應對於資料進行格式轉換,以無法直接開啟的檔案格式進行留存,縱使未來可能不慎發生資料外洩,任意第三人仍難以直接開啟或解析資料內容。甚至在傳送帳戶登入訊息時,亦應採取適當加密傳送機制,避免遭他人竊取,盜取帳戶或個人資料。 財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境完善,於2021年7月發布「重要數位資料治理暨管理制度規範(Essential Data Governance and Management System,簡稱EDGS)」,完整涵蓋數位資料的生成、保護與維護,以及存證資訊的取得、維護與驗證的流程化管理機制,故對於不同公私部門的AI相關資料,均可參考EDGS,建立系統性數位資料管理機制或強化既有機制。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Gartner, Gartner Poll Finds 45% of Executives Say ChatGPT Has Prompted an Increase in AI Investment (May 3, 2023), https://www.gartner.com/en/newsroom/press-releases/2023-05-03-gartner-poll-finds-45-percent-of-executives-say-chatgpt-has-prompted-an-increase-in-ai-investment (last visited June 30, 2023). [2]McKinsey, The economic potential of generative AI: The next productivity frontier (June 14, 2023), https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/the-economic-potential-of-generative-AI-the-next-productivity-frontier#introduction (last visited June 30, 2023). [3]Gartner, supra note 1. [4]Zoe Kleinman, Philippa Wain & Ashleigh Swan, Using AI for loans and mortgages is big risk, warns EU boss (June 14, 2023), https://www.bbc.com/news/technology-65881389 (last visited June 30, 2023). [5]Ryan Browne & MacKenzie Sigalos, A.I. has a discrimination problem. In banking, the consequences can be severe (June 23, 2023), https://www.cnbc.com/2023/06/23/ai-has-a-discrimination-problem-in-banking-that-can-be-devastating.html (last visited June 30, 2023). [6]Group-IB, Group-IB Discovers 100K+ Compromised ChatGPT Accounts on Dark Web Marketplaces; Asia-Pacific region tops the list (June 20, 2023), https://www.group-ib.com/media-center/press-releases/stealers-chatgpt-credentials/ (last visited June 30, 2023). [7]OpenAI, March 20 ChatGPT outage: Here’s what happened (Mar. 24, 2023),https://openai.com/blog/march-20-chatgpt-outage (last visited June 30, 2023).

TOP