加拿大競爭局(Competition Bureau Canada,下稱競爭局)為更了解人工智慧如何影響或促進競爭,於2025年1月27日發布人工智慧與競爭諮詢報告(Consultation on Artificial Intelligence and Competition)。競爭局於意見徵詢期間獲得來自學術界、法律界、產業協會及大型科技公司的意見書。 諮詢報告彙整意見書內容並列出以下重點: 1. 人工智慧從資料輸入、基礎模型至終端產品或服務各階段皆在快速發展,可以為市場帶來新的競爭或阻礙競爭,人工智慧可能影響競爭原因包含資源依賴、資料控制及市場參進障礙等等。 2. 人工智慧領域中大規模投資是技術成長的重要關鍵,大型企業可藉由市場力量減少競爭或進行創新,少數大型企業因擁有較高的投資能力及數據資料專屬性,在基礎架構層(運行人工智慧所需的工具,如人工智慧晶片、雲端運算及超級電腦等)中佔有極高的市場份額,但也有部分意見認為人工智慧市場仍蓬勃發展中,亦有企業或學術機構未過度依賴專有數據但仍能開發出產品。 3. 人工智慧可能導致反競爭行為,企業雖可透過垂直整合來降低成本並提高效率,但可能會減少現行市場內部競爭,或透過具有人工智慧的演算法進行定價,達到操縱市場價格的行為,現行反壟斷法未來是否可以解決此一問題還有待觀察。 藉由諮詢的過程,競爭局更能掌握人工智慧發展、也了解公眾對話的重要性,意見書亦有助於該局未來提出兼顧人工智慧發展及促進市場競爭之政策措施。 我國公平交易委員會已於112年5月成立AI專案小組,負責掌握國際間人工智慧相關競爭議題的趨勢與發展,並針對現行人工智慧發展與競爭法執法研提政策配套措施,我國公平交易委員會與加拿大競爭局對於人工智慧與市場競爭議題之後續動態,值得持續追蹤。
Ralph Lauren於Polo商標圖樣使用爭議中勝出美國第二巡迴上訴法院於二月初判決知名品牌Ralph Lauren與美國馬球協會(U.S. Polo Association ) 自1984年開始爭執不休的馬球圖樣使用爭議由Ralph Lauren勝出,馬球協會不得使用polo圖樣於香氛與美妝產品類別,確認了2012年3月地方法院禁止馬球協會使用圖樣的判決。 自1890年以來主管美國馬球運動的美國馬球協會與Ralph Lauren的馬球員圖像恩怨可追溯回1984年,當時馬球協會以確認之訴贏得在未造成與Ralph Lauren知名的Polo品牌混淆的狀況下,馬球協會得製造授權商品。 在2012年的判決中,地方法院禁止美國馬球協會使用馬球員圖樣與POLO字樣在任何香水、美妝產品類別上,同時要求USPTO拒絕馬球協會部分的商標申請,該案法官裁決與香氛產品有關的圖樣侵害Ralph Lauren的商標權利,構成不公平競爭,同時也造成設計師與被授權人無法回復的損害。 馬球協會的律師團在上訴理由中主張:馬球員圖樣符合先前使用,同時,因為過往的判決賦予協會得使用該圖樣在服裝類產品,表示也可以使用在香氛類別,因為服裝跟香氛產品的市場是很相近的,但前述主張並不為第二巡迴上訴法院陪審團所認同。
英國發布人工智慧網路資安實務守則英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。
APEC跨境隱私保護規則體系下之問責機構介紹