本文為「經濟部產業技術司科技專案成果」
「先申請不一定先贏」,經濟部智慧財產局完成「專利程序審查基準」草案,明定專利申請案若有不合程序者,就算是先提出申請的專利案件,可能面臨須重新審查,進而影響專利生效日,或者喪失優先權。 依新完成的專利程序審查基準規定,未來,申請人如果未補正,或補正仍不齊備者,則視其應補正的申請文件種類,分別為申請案不受理或產生一定法律效果。例如,申請人可能因此喪失優先權,或被視為未寄放,或者依現有資料重新審查等。先到先嬴的專利申請原則,將因新制施行而改變。 我國專利法內容,既為實體法,也為程序法,除規定准予專利權、撤銷專利權的程序、形式及實體條件外,也規定專利權及專利權管理事項,依「先程序後實體」原則,合於程序審查者,才能進入形式、實體審查,因此,無論是專利的初審、再審查或舉發等申請案,均與專利的程序審查,有密切關聯。由於我國專利法對於專利的申請採取「先申請原則」,申請日的認定,會影響到實體審查對專利要件判斷的時點,因此,申請日的認定,也是專利程序審查的主要重點。 程序審查內容及範圍,在各國審查實務上,雖有所不同,但是,包括審查各種書表是否採用主管機關公告訂定的統一格式;各種申請的撰寫、表格的填寫或圖式的製法,是否符合專利法令的規定;應該檢送的證明文件是否齊備,是否具備法律效力;申請日的認定;發明人或創作人及申請人的資格及程序是否符合規定;代理人是否具備代理的資格及權限;有無依法繳納規費等。 智慧局對於受理申請與文件審查,將分開進行,因此,專利申請人親自送件或郵寄案件,不論申請文件是否齊備,智慧局均會先行受理申請,待審查時,發現申請文件欠缺或不符合法定程式,而得補正者,再通知申請人限期補正。
德國「真實實驗室」德國政府意識到伴隨數位化發展的創新科技和商業模式雖然提供了許多機會,但往往容易對消費者、產業和社會產生顛覆性影響,此類影響通常難以在短期內權衡利弊,從而不易對其訂出具體合適的規範,例如德國新創公司Lilium、奧迪子公司Italdesign、以及歐洲航空巨擘Airbus都有意發展的空中計程車計畫,雖有無限想像空間,但卻很難在短期內評估出可能隨之而來的安全、(空氣或噪音)汙染、就業等方面的不利影響,進而制定出寬嚴適中的規範。有鑑於此,德國聯邦經濟及能源部(Bundesministerium für Wirtschaft und Energie, BMWi)於2018年12月10日提出「真實實驗室戰略」(Reallabore Strategie),旨在營造一個前瞻、靈活、可支持創新想法自由發揮的法規環境,同時也希望藉由在真實實驗室運作所得之經驗數據,了解創新的機會和風險,進而找到正確的監管答案。 「真實實驗室」(Reallabore)係指允許在特定時間及真實環境範圍內,進行創新科技與商業模式發展測試,而無需擔心與現行監管規範有所牴觸的創新試驗制度,其與「生活實驗室」(Living Labs)和「實驗場域」(Experimentierräume)、「沙盒」(Sandbox)、「領航計畫」(Pilot Project)等概念類似,與我國「金融科技創新實驗」及「無人載具科技創新實驗」之制度規範亦有異曲同工之趣,但更著重在探索未來的監管方向,簡而言之,「真實實驗室」就是一個創新想法與監管規範的試驗空間,德國聯邦經濟及能源部(BMWi)為具體傳達其概念,對其特徵作了如下描述:(1)可以進行數位創新試驗的特定時空環境(2)可以支持創新想法自由發揮的法規環境(3)可以從中進行監管學習並確定未來監管方向與具體細節。
英國發布人工智慧網路資安實務守則英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。
綠不綠有關係?!-論綠色資料中心及其相關能源效率法制政策