歐盟執委會及歐盟智慧財產局(European Union Intellectual Property Office, EUIPO)於2022年1月10日共同宣布啟動第二輪的歐盟中小企業基金(EU SME Fund),以強化中小企業的智財管理與布局。
歐盟於2020年11月發布了《智慧財產權行動計畫(Action Plan on Intellectual Property)》,並推出中小企業基金,在2021年間共補助12,989家的中小企業,補助金額達680萬歐元。由於成效不錯,因此歐盟推出第二輪的中小企業基金,其金額高達4700萬歐元,補助期間為2022年至2024年。歐盟指出,中小企業在保護創新上需要有相關的工具及資金,目前規劃的補助項目如下:
歐盟希望透過上述的方式,協助中小企業在疫情期間加速數位轉型,強化無形資產的智財布局和管理,以提升歐盟中小企業的競爭力。
「本文同步刊登於TIPS網站(https://www.tips.org.tw)」
去年12月底,Sony在美國國際貿易委員會(ITC)對LG提起控訴,指控LG的進口銷售的手機侵害其專利,請求該委員會禁止LG銷售被控侵害之手機。據稱LG也不甘示弱,因而在今年2月初,也向美國國際貿易委員會對Sony提出控訴,指控Sony的PlayStation 3遊戲機侵害其四項專利,請求該委員會禁止該遊戲機進口到美國。 根據LG所提出的訴狀,LG指控Sony的PlayStation 3遊戲機及其組件構成了直接、幫助和引誘侵權,而受侵害的四項專利分別為美國專利號7,701,835、7,577,080、7,619,961、7,756,398,都是有關藍光光碟(Blu-ray Disc)的播放技術。其中’080和’091專利是和複製藍光光碟上資料的技術有關;’835專利是和複製多資料流(multiple data streams)的操控技術有關;’398專利則和複製藍光光碟上的字幕流及更新其色調資訊的技術有關。據此,LG請求美國國際貿委員針對PlayStation 3的藍光播放器及其組件發動立即調查(immediate investigation),並發出禁止其進入美國,停止其他行銷、服務等行為之命令。 據報導指出,LG除了在美國國際貿易委員會提出控訴外,也在加州聯邦法院提起類似的訴訟,以請求金錢損害賠償。此二大公司間的專利訴訟發展,仍有待後續觀察。
性隱私內容外流風波-從美國立法例論我國違反本人意願散布性隱私內容之入罪化 音樂著作授權費 演出拉鋸戰根據著作權法第 82 條規定,著作權仲介團體與利用人間,對使用報酬爭議之調解,由著作權專責機關設置著作權審議及調解委員會辦理。新近社團法人中華音樂著作權仲介協會( MUST )提出網路電視、電影、網路廣播、網路上提供音樂欣賞、入口網站、網路音樂下載等行業業者公開傳輸費率,業者如有串流、下載、同步傳輸行為,應繳納高額之授權費用,遭到 業者抗議,此舉將遏殺數位業者萌芽的機會。 事實上在 94 年時,智慧局的費率審議委員會即曾駁回 MUST 提出的網路電視、電影等公開傳輸費率,但因網路電視、網路影片,所運用的素材不只是音樂,還包括小說、攝影、圖片,如果每一著作人都主張要收費,利用人的負擔將太重,所以智慧局當時並未通過其新費率。 不過,新近 MUST 又重新提出一個新的費率,網路電視、電影( MOD )如以串流方式公開傳輸,授權費用是業者前一年營業收入的 6% ;如果下載到硬碟、光碟片等,不是重製權,只是收下載「過路費」,授權使用費提高到前一年度營收的 10% ;如果是網路電視、電影同步傳輸,則以前一年度營收 2% 收取費用。即使是公益、非營利性的網路電視、電影,也要以全年度節目製播預算的 0.3% 計算音樂著作使用報酬。 由於此一費率與新興網路業者生存關係重大,經濟部智財局於 4 月中旬舉行「 MUST 新增、調高公開傳輸、公開演出使用報酬率意見交流會」,會中最後同意,由同行業的利用人團體一起組成談判小組,再與 MUST 進一步協商,具體討論出雙方能接受的方案。
英國發布人工智慧網路資安實務守則英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。