本文為「經濟部產業技術司科技專案成果」
歐盟成員國就《網路團結法》(Cyber Solidarity Act)草案於2024年3月達成臨時協議,目的是為了加強歐盟的團結以及偵測、準備和因應網路安全威脅事件的能力。 歐盟執委會(European Commission)提案的主要目標如下: (1)提供重大或大規模網路安全威脅事件的偵測和認識。 (2)強化準備、保護重要建設和必要服務。例如醫院和公共設施。 (3)加強歐盟的團結以及成員國之間有一致的危機管理與應變能力。 (4)最後,致力確保公民和企業皆有安全可靠的數位環境。 為了能快速且有效地偵測重大網路威脅,該法規草案建立了「網路安全警報系統」(cyber security alert system),這是一個由歐盟地區的國家和跨國界的網絡樞紐組成的泛歐洲基礎設施,將使用先進的資料分析技術以及時分享資訊,並警告有關跨境網路威脅的相關事件。 該草案亦建立網路緊急機制(cybersecurity emergency mechanism),以增強歐盟對網路安全事件應變的能力,它將包含: (1)準備行動:包含根據常見的危機情境和方法,測試高度關鍵部門(highly critical sectors)(醫療保健、運輸、能源等)的潛在漏洞。 (2)歐盟網路預備隊:係由經過認證且事先簽約的私人供應商所組成,在歐盟成員國及機構的請求下,對於發生大規模的網路安全事件進行干預及回應。 (3)財政互助:一成員國可以向另一個成員國提供援助。 最後,因應委員會及各國家當局的要求,研議中的法規建立了網路安全事件審查機制,事後對已發生的大規模網路安全事件進行審查、評估、汲取經驗,並提出一份建議報告,從而改善歐盟網路的態勢,以加強歐盟對此些事件的應變能力。 歐盟成員國此次的協議將進一步提高歐洲網路韌性,期能強化歐盟及其成員國在面對大規模網路威脅和攻擊時,能以更有效率的方式進行事前準備、預防以及提升事後從中恢復的能力。 網路安全事件是各國都會遇到的課題,《網路團結法》的發展與相關推動措施值得我們持續追蹤,以作為我國資通安全管理及網路資安事件應變機制之參考方向。
菲律賓最高法院延長網路犯罪法適用限制之時間菲律賓最高法院於2013年2月5日延長了之前(2012年10月9日)對於網路犯罪防制法(Cybercrime Prevention Act of 2012),所做出的120日暫時限制適用令(Temporary Restraining Order),表示此一法令暫時尚無法正式施行。對此,菲國參議員多表示贊成,而對於該法主要的批評包括過度侵害言論自由、違反程序正義、比例原則以及一事不兩罰原則,並可能導致「寒蟬效應」,先前聲請停止該法施行的相關人士則認為該法過於模糊且規範範圍過廣。 該法之具體適用爭議如:(1)ISP業者僅因刊登誹謗性言論,即可能遭致處罰。(2)該法12條授權主管機關可即時蒐集利用電腦系統之特定通訊資料。(3)網路使用者可能被認定為網路犯罪之幫助或教唆者而被處罰。(4)政府可能依據此法蒐集網路使用者之各種資料。 不過,菲國檢察總長Francis Jardeleza 對此則表示,此法雖有缺陷,但亦尚未至完全可廢止之程度。另外,尚有菲律賓全國記者聯盟(National Union of Journalists of the Philippines, NUJP)與菲律賓網路自由聯盟(Philippine Internet Freedom Alliance, PIFA)對此限制適用令表示支持,並認為對於法令與自由衝突爭議正方興未艾。
美國國家標準與技術研究院公布人工智慧風險管理框架(AI RMF 1.0)美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。 本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。 本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。
印度為促進新創公司發展 將不予受理軟體專利申請案印度「專利設計與商標管理局」(Controller General of Patents, Designs and Trademarks)於2016年2月19日發佈最新的「審查電腦相關之發明專利準則」(Guidelines for Examination of Computer Related Inventions, CRIs),決定在專利申請之審查程序中落實印度於1970年所制定的專利法(Patents Act, 1970)之意旨,未來當局將不再受理與電腦相關的軟體專利申請案。印度《專利法》第3條第k項排除本質上為數學演算法、商業方法與電腦程式運算法則等申請案之可專利性(Patentable)。該規定在印度《專利法》於2002年、2004年與2005年修法過程中,雖面臨各方利益團體試圖影響國會立法放寬法定可專利性範圍的壓力,但仍然為印度國會(Bhārat kī Sansad)所保留。 然而,印度「專利設計與商標管理局」卻於2015年8月21日發佈違反《專利法》意旨的CRIs,導致軟體專利的可專利性被實質上放寬。一般認為開放申請軟體專利的政策將會阻礙新創公司的發展,並有利於所謂「專利主張實體」(Patent Assertion Entity, PAE)藉大量軟體專利向一般公司提起訴訟或請求授權金,導致印度當局遭受國內新創軟體公司與相關非政府組織的激烈抗議。 「自由軟體法律中心」(Software Freedom Law Center, SFLC)與「印度軟體產品圓桌會議」(Indian Software Product Industry Round Table, iSPIRT)等機構即代表眾多新創公司與學術界人士上書印度「總理辦公室」(Prime Minister’s Office),請求政府對2015年8月發佈的CRIs進行檢討。SFLC等組織的積極作為,成功說服印度當局作出暫緩該高度爭議的CRIs生效之決定。代表SFLC等組織的專家表示,印度的軟體已受到《著作權法》與《營業秘密法》的足夠保障,進一步開放發明人申請軟體專利只會對該國軟體產業並無助益。 印度當局與相關團體在數個月間密集的進行研議,終於在2016年2月決定修正原先發佈的CRIs,使其回歸印度《專利法》不開放軟體專利申請的立法意旨。