標準必要專利(standards-essential patents,SEPs)是國際標準組織所採行的一種專利運用模式,主要係為了使標準共通技術普及之同時平衡專利權人之利益,將技術發展中重要的標準共通技術結合專利保護,同時均要求專利權人須簽署FRAND(Fair,Reasonable and Non-discriminatory)條款,以公平、合理、無歧視之原則收取合理數額之專利授權費供標準化組織成員有償使用。然而,因專利本身即是一種合法壟斷,是以標準必要專利之授權模式可實現利益最大化;但涉及到具高度共通性又難以迴避的技術時,應當避免少數專利權人濫用專利權和市場壟斷。因此,專利權人和被授權人之間,對於收取合理專利授權費之議題,在一直無法取得共識之下,往往訴諸法律解決。從美國聯邦法院涉及標準必要專利侵權之訴訟案例,可看出美國針對標準必要專利目前主要有下列幾種趨勢:(1)合理之專利授權費以該技術佔產品元件之比率計算;(2)標準必要專利之授權費金額逐步降低;(3)專利權人必須先進行授權流程(4)不能直接申請禁制令。
本文為「經濟部產業技術司科技專案成果」
英國民用航空局(United Kingdom Civil Aviation Authority, CAA)於2024年12月3日發布「CAA對新興AI驅動自動化的回應」(The CAA's Response to Emerging AI-Enabled Automation)、「航空人工智慧與先進自動化監管策略」(Part A:Strategy for Regulating AI and Advanced Automation in Aerospace)以及「CAA 應用AI策略」(Part B: Strategy for Using AI in the CAA)等三份文件。首先,前者概述CAA對於AI應用於航空領域之總體立場,強調以確保安全、安保、消費者保護及環境永續等前提下,促進AI技術在相關航空領域之創新與應用;其次,「航空人工智慧與先進自動化監管策略」著重說明如何於航空領域監管AI技術之使用,以兼顧推動創新並維持安全性及穩健性;最後,「CAA 應用AI策略」則聚焦於CAA內部使用AI技術提升監管效率與決策能力的策略。 由於AI正迅速成為航空產業之重要技術,其應用範圍包含航空器、機場、地面基礎設施、空域、航太、消費者服務等,具有提高航空安全性、運作效率、環境永續性與消費者體驗之潛力。然而,相關技術風險與監管挑戰亦伴隨而至,仍需新的監管框架應對潛在風險。因此,總體而言CAA以推動AI創新技術、提升航空產業效率與永續性為目標,透過了解技術前景、建立AI通用語言,並以航空領域之五大原則為監管框架之制定核心,建立靈活的AI監管體系,維持最高水準的安全保障。五大原則及案例分述如下: (1) 安全、安保與穩健性(Safety, Security and Robustness),例如:使用AI分析航空器感測器資料進行預測維護,以利提早發現問題。 (2) 透明與可解釋性(Transparency and Explainability),例如:清楚記錄AI系統如何提出空中交通路線建議。 (3) 可質疑性與矯正機制(Contestability and Redress),例如:制定一套明確的流程,以便航空公司查詢並了解AI生成的安全建議。 (4) 公平與偏見(Fairness and Bias),例如:確保自動化旅客篩查安檢系統公平對待所有旅客。 (5) 問責與治理(Accountability and Governance),例如:明確界定AI系統在機場運營中的監管角色與職責。 .Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em}
美國2016年製造創新策略方案依2014年復甦美國製造與創新法(RAMI Act of 2014),美國國家製造創新網絡計畫於2016年2月公布策略方案(Strategic Plan)。國家製造創新網絡有四大目標:以「提升製造競爭力」為終極目標,其他三個目標分別為「促進技術轉型」、「加速製造業人力發展」、以及「確保穩定與永續之基礎建設」。在「促進技術轉型」方面,旨在促進創新技術朝向具備可適性、擁有成本效益、以及高效能之國內製造業量能的方向轉型。由於不同的製造整備度(manufacturing readiness levels)對應不同的技術整備度(technology readiness levels),且國家製造創新網絡有其設定之目標範圍,因而研發機構被預期能夠促進技術轉型的亦有差異。 行政院於民國105年7月核定通過「智慧機械產業推動方案」,透過「智機產業化」與「產業智機化」來建構智慧機械產業生態體系。智慧機械將結合半導體先進製程、精密醫療機械加工與智慧服務型機器人、以及航太與造船軍民通用技術應用,分別對應帶動亞洲矽谷、生技醫藥、以及國防等創新產業政策。透過智慧機械帶動整體產業發展,從精密走向智慧、從單機走向系統,以提高整體產業之產值
近來歐盟健康食品上市審查標準之實務觀察歐盟自2007年起開始實施「歐盟(EC)1924/2006號食品營養及健康訴求規則」(簡稱營養與健康訴求規則)以來,對於以營養與健康為訴求的產品,要求廠商上市販賣之產品,必須經過科學實證,產品標示必須簡易明瞭,強調科學實證必須證明食用該產品對人體有益,並證明食用產品與其功能效果間能建立因果關係,更強調文字敘述應貼近事實、清楚明瞭、確實可靠,避免使用模糊不清或造成不同解讀的文字,以便於消費者識別選購產品,滿足個人攝取這類食品的需求。 自規則實施以來,業者紛紛向歐盟食品安全管理局(European Food Safety Authority,簡稱EFSA)遞交申請案件,期待通過審查,獲准上市。然而,以營養與健康訴求規則中的第十四項減少疾病風險與促進兒童健康訴求,引起較多爭議。到2008年9月底,九件申請案當中已有八件遭到EFSA駁回,無不引起產業界的恐慌。僅Unilever(聯合利華公司,以下簡稱Unilever)的植物固醇產品(plant sterol)一案通過。反觀其餘個案,廠商遭EFSA駁回申請案的理由不一。例如,法國廠商Bio-Serae以仙人掌纖維衍生物申請具有降低血脂質的健康訴求,EFSA表示提交的證據資料不足以建立食用產品與效果功能間的因果關係。再者,另一件訴求ALA(α亞麻油酸)和LA(亞麻油酸)之攝取可以促進兒童生長的申請案中,EFSA接受廠商檢附的證據資料,但表示孩童經由正常飲食即可攝取足夠的ALA與LA,攝取量高於均衡飲食標準沒有益處。 雖然EFSA之意見不具有法律效力,且負面意見不表示否定產品之成分或功能,僅表示其依據資料不完整,不足以證明兩者具有因果關係,但卻具有相當之影響力。目前某些業者面對法令細節尚未明朗,同時負面意見多於正面意見的情形下,憂心負面意見恐將影響公司與產品形象,先行退出審查過程並暫緩產品上市。到2008年底,EFSA又駁回五件關於益生菌(probiotics)增進兒童健康的申請案,表示提供的證據資料不足以證明其功能為由。累計至去年底二十七申請案中(含上述五件益生菌申請案),僅有五件申請案獲得EFSA之正面意見,負面意見依舊多於正面意見。 然而在2009年1月,EFSA核准西班牙廠商Danone促進兒童骨骼生長的健康訴求,表示證據資料足以建立因果關係,證明維他命D有助於鈣質攝取。顯示出業者提供充足科學證據資料與完整的產品說明,以證明其食用產品與功能效果間的因果關係,將利於審查作業進行,也將助於獲得EFSA之核准上市。
澳洲政府發布「國家 AI 計畫」 將採用科技中立的AI治理模式澳洲工業、科學及資源部(Department of Industry, Science and Resources)於2025年12月2日發布「國家AI計畫」(National AI Plan),擘劃了澳洲至2030年的AI發展藍圖,將「掌握機遇」、「普及效益」與「確保人民安全」列為三大發展方向。該計畫將透過基礎建設投資、人才培育、產業支持,以及強化監管能力等途徑,打造一個更具競爭力、包容性與安全性的 AI 生態系統。 國家AI計畫的另一個重點在於,澳洲政府打算透過現有的法律監管架構治理AI,而不另立AI專法。此舉是回應澳洲生產力委員會(Productivity Commission)於8月提出之建言:政府在推動創新與訂定規範時必須取得平衡,應暫緩推動「高風險 AI 的強制護欄(mandatory guardrails)」,僅有在現行制度無法處理AI衍生之危害時,才有必要考慮制定 AI 專法。 據此,國家AI計畫指出,面對AI可能造成的危害,現有制度已有辦法進行處理。例如面對使用AI產品或服務的爭議,可依循《消費者保護法》(Australian Consumer Law)取得權利保障;AI產品或服務的風險危害,亦可透過《線上安全法》(Online Safety Act 2021)授權,制定可強制執行的產業守則(enforceable industry codes)來應對。澳洲政府未來也將推動《隱私法》(Privacy Act 1988)修法,意欲在「保護個人資訊」與「允許資訊被使用及分享」之間取得適當平衡。 同時,由於採用分散式立法的關係,澳洲特別成立「AI 安全研究院」(Australian AI Safety Institute, AISI),以強化政府因應 AI 相關風險與危害的能力。AISI將協助政府部門內部進行監測、分析並共享資訊,使部門間能採取即時且一致的治理政策。 澳洲政府曾在2024年9月研議針對高風險AI進行專門的監管,但因擔心過度立法恐扼殺AI發展轉而採用「科技中立」的監管方式,以既有法律架構為基礎推動AI治理。此與歐盟的AI治理邏輯大相逕庭,未來是否會出現現行制度無法處理之AI危害,抑或採用現行法制並進行微調的方式即可因應,值得持續觀察。