歐盟執委會於2020年1月8日發布《非歐盟國家智財權保護與執法成效報告》(Report on the protection and enforcement of intellectual property rights in third countries)。該報告自2006年起,每兩年出版一次,主要目的為確定特定非歐盟國家中智財權之保護與執法狀況,並列出每兩年的「優先關注國」(priority countries)清單。報告中亦說明,所謂「優先關注國」是對歐盟智財利益造成最大侵害的國家,而非指全球中智財保護狀況最有問題的國家。
本次報告臚列的國家中,中國為最需關注的第一級國家;第二級為印度、印尼、俄羅斯等;第三級則是阿根廷、巴西、馬來西亞、泰國、沙烏地阿拉伯等國。報告提到中國是歐盟境內仿冒品與盜版貨物的主要來源。在歐盟海關扣押的仿冒品與盜版貨物中,有百分之八十以上來自中國和香港。第二類優先國家,其智財保護與執法存在系統性問題,且問題解決上進度緩慢。而第三類優先國家智財領域表現上也有類似問題,僅在嚴重性和數量低於第二級優先國家。其中,沙烏地阿拉伯為今年新增為優先關注國家,研究報告指出該國常被作為中轉國家,傳輸歐盟境內仿冒與盜版貨物。
報告中亦提到上述國家共同問題,包含:
本文為「經濟部產業技術司科技專案成果」
歐盟執委會於2025年2月4日發布「關於禁止的人工智慧行為指引」(Commission Guidelines on Prohibited Artificial Intelligence Practices)(下稱「指引」)」,以因應歐盟《人工智慧法》(AI Act,下稱AIA)第5條關於「禁止的人工智慧行為」之規定。該規定自2月2日起正式實施,惟其內容僅臚列禁止行為而未深入闡釋其內涵,執委會特別制定本指引以避免產生歧義及混淆。 第5條明文禁止使用人工智慧系統進行有害行為,包括:利用潛意識技術或利用特定個人或群體之弱點進行有害操縱或欺騙行為、實施社會評分機制、進行個人犯罪風險預測、執行無特定目標之臉部影像蒐集、進行情緒識別分析、實施生物特徵分類、以及為執法目的而部署即時遠端生物特徵識別系統等。是以,指引就各禁止事項分別闡述其立法理由、禁止行為之具體內涵、構成要件、以及得以豁免適用之特定情形,並示例說明,具體詮釋條文規定。 此外,根據AIA規定,前述禁令僅適用於已在歐盟境內「投放市場」、「投入使用」或「使用」之人工智慧系統,惟對於「使用」一詞,並未予以明確定義。指引中特別闡明「使用」之定義,將其廣義解釋為涵蓋「系統投放市場或投入使用後,在其生命週期任何時刻的使用或部署。」 指引中亦指出,高風險AI系統的特定使用情境亦可能符合第5條的禁止要件,因而構成禁止行為,反之亦然。因此,AIA第5條宜與第6條關於高風險AI系統的規定交互參照應用。 AIA自通過後,如何進行條文內容解釋以及法律遵循義務成為各界持續討論之議題,本指引可提升AIA規範之明確性,有助於該法之落實。
論智慧財產交易於破產發生時之法律因應機制 美國情報體系發布「情報體系運用人工智慧倫理架構」美國國家情報體系(United States Intelligence Community)係於1981年依據行政命令第12333號(Executive Order 12333)所建立,其任務為蒐集、分析與提供外國情報與反情報資訊美國國家領導人,服務對象包含美國總統、執法單位以及軍事單位。其於2020年6月提出「情報體系人工智慧倫理架構」(Artificial Intelligence Ethics Framework for the Intelligence Community),為人工智慧系統與訓練資料、測試資料之採購、設計、研發、使用、保護、消費與管理提出指引,並指出人工智慧之利用須遵從以下事項: 一、於經過潛在風險評估後,以適當且符合目的之方法利用; 二、人工智慧之使用應尊重個人權利與自由,且資料取得應合法且符合相關政策與法規之要求; 三、應於利用程序內結合人類判斷與建立問責機制,以因應AI產品之風險並確保其決策之適當性。 四、於不破壞其功能與實用性之前提下,盡可能確認、統計以及降低潛在之歧視問題。 五、AI進行測試時應同時考量其未來利用上可預見之風險。 六、持續維持AI模型之迭代(Iteration)、版本與改動之審查。 七、AI之建立目的、限制與設計之輸出項目,應文件化。 八、盡可能使用可解釋與可理解之方式,讓使用者、審查者與公眾理解為何AI會產出相關決策。 九、持續不定期檢測AI,以確保其符合當初建置之目的。 十、確認AI於產品循環中各階段之負責人,包含其維護相關紀錄之責任。
強化政府橫向協調,提升AI治理—澳洲擬於2026年初設立AI安全研究所澳洲政府於2025年11月25日宣布,將於2026年初設立AI安全研究所(AI Safety Institute)。澳洲AI安全研究所的設立目標,為提供相關的專業能力,以監管、測試與共享AI在技術、風險、危害層面的資訊。經由辨識潛在的風險,提供澳洲政府與人民必要的保護。AI安全研究所將以既有之法律與監管框架為基礎,因應AI風險,協助政府各部門調整相關規範。其主要業務如下: .協助政府掌握AI技術的發展趨勢,動態應對新興的風險與危害; .強化政府對先進AI技術發展及潛在影響的理解; .共享AI資訊與作為協調政府各部門的樞紐; .經由國家AI中心(National AI Centre,NAIC)等管道,提供事業、政府、公眾與AI相關的機會、風險和安全的指導; .協助澳洲履行國際AI安全協議的承諾。 AI安全研究所並為2025年12月2日,工業、科學與資源部(Department of Industry, Science and Resources)發布的國家AI計畫(National AI Plan,下稱澳洲AI計畫)中,保障應用AI安全性的關鍵項目。澳洲AI計畫指出,AI安全研究所將關注AI的上游風險(upstream AI risks),與下游危害(downstream AI harms)。所稱之上游風險,係指AI模型和系統的建構、訓練方式,與AI本身的能力,可能產生的疑慮。下游危害,則係指使用AI系統時,可能的實質影響。 AI安全研究所將支援與國際、政府各部門間之合作;並共享新興的AI技術能力,以及對AI上游風險的見解,發布安全研究成果,提供產業與學術界參考。AI安全研究所監測、分析與共享資訊,提出政府各部門,對AI下游危害,可採取的一致性應對建議。 綜上所述,澳洲政府提出國家AI計畫,於既有的法制體系,滾動調整相關規範,以應對AI風險。並成立AI安全研究所,追蹤國際AI發展脈動,及時提供澳洲政府應對建議,協調各部門採取一致性的行動。澳洲政府對新興AI技術,所採取策略的具體成效,仍有待觀察。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)