德國聯邦議會於2015年通過資訊科技安全法(IT-Sicherheitsgesetz),主管機關為聯邦資訊安全局(Bundesamt für Sicherheit in der Informationstechnik, BSI),隸屬於德國聯邦內政部(Bundesministerium des Innern)。目的是為保障德國公民與企業使用的資訊系統安全,特別是在全國數位化進程中,攸關國家發展的關鍵基礎設施,讓德國成為全球資訊科技系統及數位基礎設施安全的先驅與各國的模範,同時藉此強化德國資訊科技安全企業的競爭力,提升外銷實力。
該法案主題包括,在關鍵基礎設施上改進企業資訊科技安全、保護公民的網路安全、確保德國聯邦資訊科技、加強聯邦資訊技術安全局的能力與資源、擴展聯邦刑事網路犯罪的調查權力。
該法主要係針對關鍵基礎設施營運者(Kritische Infrastrukturbetreiber) 進行安全要求,例如在能源、資訊科技、電信、運輸和交通、醫療、水利、食品、金融與保險等領域的企業。德國聯邦政府要求關鍵基礎設施的營運商,要滿足資訊科技安全的最低標準,且須向聯邦資訊安全局通報資訊安全事件。聯邦資訊安全局要對關鍵基礎設施營運商的資訊進行評估分析,並提供給關鍵基礎設施營運商彙整改善,以提高其基礎設施的保護。
本文為「經濟部產業技術司科技專案成果」
中國大陸國家知識產權局於2015年4月1日,公佈第四次《中華人民共和國專利法修改草案(徵求意見稿)》,其中涉及實質性修改條文共30條,包括修改現有條文18條、新增11條、刪除1條,並增加「專利的實施和運用」章。 具體修改重要內容包括: 一、強化外觀設計保護:1、產品局部外觀設計納入專利法保護範圍。2、增加外觀設計專利國內優先權制度。3、將外觀設計專利權之保護期限由10年延長到15年。4、鑒於實用新型和外觀設計專利權的授予沒有經過實質審查,具有不穩定性,草案增訂「專利權評價報告」作為侵權糾紛審理和處理過程中必須提交的「證據」,當事人無正當理由不提交,需自行承擔訴訟上不利後果。 二、提升發明人地位:1、草案規定「利用本單位物質技術條件完成的發明創造」,權利歸屬優先適用約定原則,若未約定時,申請專利權利歸屬於發明人或設計人。2、為解決國家設立之研究機構、高等院校專利技術移轉率低問題,允許發明人或設計人在單位怠於實施發明情形下,可與單位協商自行實施或者授權他人實施該專利,並按照協議享有相應權益,藉以激勵發明人積極進行技轉實施。 本次意見徵集時間已於4月28日截止,上述強化外觀設計保護及發明人地位作法,得否順利通過,有待後續持續追蹤。
智慧財產風險管理與公司治理的匯流 歐盟有機農民團體反對為新植物育種技術(NPBT)訂定新法歐洲法院(European Court of Justice, ECJ)於2018年7月作出裁定,利用新植物育種技術(New Plant Breeding Techniques , NPBT)誘變(mutagenesis)所得之作物亦屬於基因改造生物(genetically modified organism , GMO),因此須適用歐盟的基因改造生物管制指令(GMO Directive 2001/18/EC)。 對於不涉及外源基因添加的新植物育種技術,是否應視為基因改造生物,並需獨立於添加外源基因之基因改造生物另制定框架,對此引發了強烈的討論,科學界/農民跟環保團體/有機農法之農民之間抱持著相反的態度。 科學界/農民認為,歐洲法院是以近20年前所通過的基因改造生物管制指令所做出的解釋,並未考量該技術進步所造成的差異,其認為新植物育種技術之誘變與自然產生的誘變無實質差異,而需要就新植物育種技術另外進行立法。 歐盟有機農民運動聯盟(IFOAM EU)於2019年7月24日發出聲明,認為若將新植物育種技術排除於歐盟基因改造生物管制指令之適用,將造成有機農業與傳統非基因改造生物之農民無法於農作物生產過程中排除基因改造生物之存在,最終將使得消費者、農民、食品加工者失去選擇非基因改造生物之選擇自由,故樂見歐洲法院之見解。 「本文同步刊登於TIPS網站(https://www.tips.org.tw )」
歐盟提出人工智慧法律調和規則草案歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。 歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。 本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。 AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。