歐盟公布競爭與創新綱要計畫

  歐盟最近公布新通過的競爭與創新綱要計畫( Competitiveness and Innovation Framework Programme 2007-2013 , 簡稱: CIFP (2007-2013) ),預計自今( 2006 )年 11 29 生效適用 CIPF (2007-2013) 旨在強化歐盟競爭與創新的能量,以期透過均衡的經濟成長,促進知識社會與永續發展。


  
CIFP (2007-2013) 根據歐盟現今的發展策略- Lisbon Strategy ,亦是將重點放在如何協助中小型企業運用其創新的潛能,開發更高品質的產品。由於去年歐盟理事會重新定位 Lisbon Strategy 的重點在於激勵企業家精神、確保新創事業可獲得充份的風險資本挹注、鼓勵並引導融入環境友善精神的創新( eco-innovation )、善用 ICT 技術、促進資源的永續利用,故而 CIPF (2007-2013) 的計畫重點也放在如何落實前述政策目標,以使「競爭與創新」、「知識經濟」以及「永續發展」得以齊頭並進。


  另
CIPF (2007-2013) 在第七期研發綱要架構( Seventh Framework Programme for research and technological development )執行期間( 2007-2013 )也將與其相輔相成,不過 CIPF (2007-2013) 重點不在研發補助,而是希望在研究與創新之間搭建橋樑,同時鼓勵各種形式的創新利用。舉例而言,如何協助將第七期研發綱要的成果進一步透過技術移轉方式鼓勵其商業化利用,即是 CIPF (2007-2013) 所要達到的任務之一,不過手段上 CIPF (2007-2013) 的經費主要會用於如何解決研究與創新之間的市場失靈問題。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 歐盟公布競爭與創新綱要計畫, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=517&no=57&tp=1 (最後瀏覽日:2026/04/14)
引註此篇文章
你可能還會想看
基因轉殖複製羊 創造生技產業的新利基

  台灣複製動物技術又邁向新的里程碑。行政院長謝長廷於 9月8日上午宣布台灣第一頭外帶基因轉殖複製羊「寶鈺」,成功繁殖下一代,並將人類第八凝血因子成功遺傳給下一代。   目前人類第八凝血因子市價每公克價值 290萬美元﹙相當於新台幣8千萬元﹚, 全球每年約需要 300公克,預計將創造8億至9億美元價值的市場,由於「寶鈺」母子成為凝血因子供應源,其產值及身價自然十分驚人。雖然距離商品化階段仍有一段距離,但此項技術於世界已屬領先。   「寶鈺」順利產下後代將創下我國體細胞製動物正常繁殖後代之首例,以及開創基因轉殖羊之下一代傳承母羊外源基因人類第八凝血因子之生物科技的突破,未來運用複製與基因轉殖科技,利用家畜泌乳系統作為生物反應器以生產醫藥蛋白,將可成為台灣生技產業之利基點。

IBM提出「人工智慧日常倫理」手冊作為研發人員指引

  隨著人工智慧快速發,各界開始意識到人工智慧系統應用、發展過程所涉及的倫理議題,應該建構出相應的規範。IBM於2018年9月02日提出了「人工智慧日常倫理」(Everyday Ethics for Artificial Intelligence)手冊,其以明確、具體的指引做為系統設計師以及開發人員間之共同範本。作為可明確操作的規範,該手冊提供了問責制度、價值協同、可理解性等關注點,以促進社會對人工智慧的信任。 一、問責制度(Accountability)   由於人工智慧的決策將作為人們判斷的重要依據,在看似客觀的演算系統中,編寫演算法、定義失敗或成功的程式設計人員,將影響到人工智慧的演算結果。因此,系統的設計和開發團隊,應詳細記錄系統之設計與決策流程,確保設計、開發階段的責任歸屬,以及程序的可檢驗性。 二、價值協同(Value Alignment)   人工智慧在協助人們做出判斷時,應充分考量到事件的背景因素,其中包括經驗、記憶、文化規範等廣泛知識的借鑑。因此系統設計和開發人員,應協同應用領域之價值體系與經驗,並確保演算時對於跨領域的文化規範與價值觀之敏感性。同時,設計師和開發人員應使人工智慧系統得以「了解並認知」用戶的價值觀,使演算系統與使用者之行為準則相符。 三、可理解性(Explainability)   人工智慧系統的設計,應盡可能地讓人們理解,甚至檢測、審視它決策的過程。隨著人工智慧應用範圍的擴大,其演算決策的過程必須以人們得以理解的方式解釋。此係讓用戶與人工智慧系統交互了解,並針對人工智慧結論或建議,進而有所反饋的重要關鍵;並使用戶面對高度敏感決策時,得以據之檢視系統之背景數據、演算邏輯、推理及建議等。   該手冊提醒,倫理考量應在人工智慧設計之初嵌入,以最小化演算的歧視,並使決策過程透明,使用戶始終能意識到他們正在與人工智慧進行互動。而作為人工智慧系統設計人員和開發團隊,應視為影響數百萬人甚至社會生態的核心角色,應負有義務設計以人為本,並與社會價值觀和道德觀一致的智慧系統。

歐盟智慧財產局出版《防偽技術指南》,協助企業及早防免智財侵權風險

  歐盟智慧財產局(European Union Intellectual Property Office)之智庫「歐盟智財侵權觀察平台」(the European Observatory)於今(2021)年2月出版《防偽技術指南》(Anti-Counterfeiting Technology Guide,下稱本指南),本指南全面介紹目前市面上防偽技術的內容,技術區分成電子型、標記型、化學型、物理型、機械及數位媒體型等五大防偽技術類別,供所有有興趣了解或欲執行防偽技術的各規模、各領域企業們參考。   仿冒為全球性問題,幾乎威脅到了各領域行業的營運與生存,而全球仿冒品數量在互聯網時代之下,以每年增長15%的驚人速度上升中,已嚴重侵害了企業的品牌商譽與智慧財產權。企業雖懂得以註冊智財權的方式自我保護,但仿冒問題對企業帶來的攻擊性日益增加、防偽技術又多如牛毛且複雜,本指南彙整之資訊,尚補充了關於ISO標準的相關技術資訊,如《 ISO 22383:2020 》(產品與文件之安全性、彈性、真實性與完整性-重要產品認證方案之選擇與性能評估標準)。這些資訊可以跟防偽技術一併使用,精進企業整體防偽策略。   此外,本指南對於彙整出的每項防偽技術或ISO的相關技術標準,都予以清楚介紹,並說明技術主要特性、優缺點、用途、實施條件以及相關成本,企業可透過本指南比較各式防偽技術,從而選定最適合其業務性質的防偽技術,及早防範仿冒風險,以保護企業之業務營運與品牌發展。

日本文化廳發布《人工智慧著作權檢核清單和指引》

日本文化廳發布《人工智慧著作權檢核清單和指引》 資訊工業策進會科技法律研究所 2024年08月21日 日本文化廳為降低生成式人工智慧所產生的著作權風險,保護和行使著作權人權利,於2024年7月31日以文化廳3月發布的《人工智慧與著作權的思考》、內閣府5月發布的《人工智慧時代知識產權研究小組中期報告》,以及總務省和經濟產業省4月份發布的《人工智慧事業指引(1.0版)》的資料為基礎,制訂發布《人工智慧著作權檢核清單和指引》[1]。 壹、事件摘要 日本文化廳的《人工智慧著作權檢核清單和指引》主要分成兩部分,第一部分是「人工智慧開發、提供和使用清單」,依循總務省和經濟產業省4月份發布的《人工智慧事業指引(1.0版)》的區分方式,分為「AI開發者」、「AI提供者」、「AI(業務)使用者(事業利用人)」和「業務外利用者(一般利用人)」四個利害關係人,依不同的身份分別說明如何降低人工智慧開發前後的資料處理和學習等智慧財產權侵權風險的措施,以及提供和使用人工智慧系統和服務時,安全、適當地使用人工智慧的技術訣竅。 第二部分則是針對著作權人及依著作權法享有權利的其他權利人(例如表演人)的權益保護,從權利人的思考角度,建議正確理解生成式AI可能會出現什麼樣的(著作權)法律上利用行為[2]。其次,說明近似侵權的判斷要件、要件的證明、防止與賠償等可主張的法律上請求、可向誰主張侵權、權利主張的限制;於事先或發現後可採取的防止人工智慧侵權學習的可能措施;最後對侵權因應建議權利人可發出著作權侵權警告、進行訴訟、調解等糾紛解決,並提供可用的法律諮詢窗口資訊。 貳、重點說明 日本文化廳於此指引中,針對不同的角色提出生成式AI與著作權之間的關係,除更具體的對「AI開發者」、「AI提供者」、「AI(事業與一般利用人)」,提醒其應注意的侵權風險樣態、可能的合法使用範圍,並提供如何降低風險的對策。同時,從權利人角度提供如何保護權益的指引,並提供可用的法律諮詢窗口資訊。重點說明如下: 一、不符合「非享受目的」的非法AI訓練 日本著作權法第30條之4規定適用於以收集人工智慧學習資料等為目的而進行的著作權作品的複製,無需獲得權利人的授權,但是,該指引特別明確指出「為了輸出AI學習資料中包含的既有作品的內容,而進行額外學習;為讓AI產出學習資料庫中所包含的既有作品的創作表現;對特定創作者的少量著作權作品進行額外個別學習」,這三個情況係同時存有「享受」著作目的,不適用無須授權的規定[3]。 二、不能「不當損害著作權人利益」 從已經採取的措施和過去的銷售紀錄可以推斷,資料庫著作權作品計劃有償作為人工智慧學習的資料集。在這種情況下,未經授權以人工智慧學習為目的進行複製時,屬於「不當損害著作權人利益」的要求,將不適用(日本)著作權法第30條之4規定[4]。在明知某個網站發布盜版或其他侵害著作權的情況下收集學習資料,則使用該學習資料開發的人工智慧也會造成著作權侵權,人工智慧開發者也可能被追究著作權責任[5]。不應使用以原樣輸出作為學習資料的著作權作品的學習方法,如果該已訓練模型處於高概率生成與學習資料中的著作物相似的生成結果的狀態等情況下,則該已訓練模型可能被評價為「學習資料中著作物的複製物」, 對銷毀該模型的請求即有可能會被同意[6]。 三、使用生成式AI即可能被認定為可能有接觸被侵害著作[7] 權利人不一定必須證明「生成所用生成AI的學習資料中包含權利人的作品。如有下述AI使用者認識到權利人的作品的情況之一,權利人亦可透過主張和證明符合「依賴性(依拠性)」要件,例如:AI使用者將現有的著作物本身輸入生成AI、輸入了現有著作物的題名(標題)或其他特定的固有名詞、AI生成物與現有著作物高度類似等。 四、開發與提供者也可能是侵權責任主體[8] 該指引指出,除利用人外,開發或提供者亦有負侵權責任的可能,特別是--人工智慧頻繁產生侵權結果,或已意識到人工智慧很有可能產生侵權結果,但沒有採取措施阻止。於其應負侵權責任時,可能被請求從訓練資料集中刪除現有的著作權作品,甚至是刪除造成侵權的人工智慧學習創建的訓練模型。即便人工智慧學習創建的訓練模型一般並非訓練資料的重製物,不過如果訓練後的模型處於產生與作為訓練資料的著作權作品相似的產品的機率很高的狀態,該指引認為可能會被同意[9]。 參、事件評析 人工智慧(AI)科技迎來契機,其生成內容隨著科技發展日新月異,時常可以看見民眾在網路上分享AI技術生成的圖像和影音。是否能將AI生成的圖案用在馬克杯或衣服販售,或是將Chat GPT內容當作補習班教材,均成為日常生活中的訓練AI的資料與運用AI的產出疑義。 各國固然就存有人類的「創造性貢獻」是人工智慧生成結果是否受著作權法保護、可受著作權保護的條件,單純機械性的AI自動生成,基本上欠缺「人的創造性」,非著作權保護對象,已有明確的共識。如何以明確的法令規範降低AI開發過程的侵權風險或處理成本?賦予AI訓練合法使用既有著作,應有的界限?衡平(賦予)既有著作的著作權人權益?AI服務提供者應負那些共通義務?是否合理課予AI服務提供者應負之侵權損害責任?AI使用者之侵權責任是否須推定符合「接觸」要件?等等諸此進一步的疑義,則仍在各國討論、形成共識中。 而從日本文化廳的《人工智慧著作權檢核清單和指引》,我們可以清楚的看出,在樹立成為AI大國的國家發展政策下,其著作權法雖已賦予AI訓練資料合法的重製,但在指引是明列已屬「享受」目的訓練行為、不合理損害著作權利用的情況、明示開發服務者應負的揭露義務與可能承擔侵權責任,彰顯其對權利人權益平衡保護的努力。值得於我國將來推動落實AI基本法草案中維護著作權人權益原則時,做為完善相關法令機制的重要參考。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1] 文化庁著作権課,「AI著作権チェックリスト&ガイダンス」,令和6年7月31日,https://www.bunka.go.jp/seisaku/bunkashingikai/chosakuken/seisaku/r06_02/pdf/94089701_05.pdf,最後閱覽日:2024/08/20。 [2] 詳見前註,頁31。 [3] 詳見前註,頁7。 [4] 詳見前註,頁8。 [5] 詳見前註,頁9。 [6] 詳見前註,頁9。 [7] 詳見前註,頁35。 [8] 詳見前註,頁36。 [9] 詳見前註,頁42。

TOP