根據美國公共電視台在2016年1月6日的新聞,指出生物支付將可能成為新興支付工具。生物支付之定義為利用生物辨識(biometric)技術驗證個人生物特徵,諸如:指紋、虹膜等進行支付。採用生物支付技術,未來將無須使用信用卡或行動裝置,僅需要個人生物特徵之辨識即可完成交易。此轉變將使未來交易更加快速、便利,但同時,生物支付的安全性卻也不無疑義。 即便生物辨識屬於高層級的資訊安全保護機制,但水能載舟,亦能覆舟。生物辨識利用生物不可變之特性進行身分識別,涉及高度個人隱私,為妥善保護個人資訊安全,需訂立生物辨識相關規範加以管制,否則將衍生許多法律問題。 例如:在2015年6月,美國線上出版商Shutterfly公司被控訴違法蒐集個人資料。原告稱其並非Shutterfly公司之註冊使用者,也從未同意其生物辨識資訊被該公司蒐集,但其面紋(Face print)卻被上傳至該公司網站,並標註姓名,儲存在自動針對相片標記臉部辨識系統之資料庫。 依據BIPA針對生物辨識定義及蒐集規範: 1.第10條: 生物辨識之態樣,包含視網膜、虹膜掃描、指紋或是手部、臉部外觀之掃描,但不包括簽名、照片、用於科學檢測之人體樣本、頭髮顏色等。 2.第15條(a): 規定公司蒐集個人生物特徵資訊應有相關規範供公眾查閱,並應提供生物辨識資訊之保管及銷毀日期及相關資訊。 3.第15條(b)(1): 蒐集生物辨識資訊應告知當事人。 Shutterfly公司提出要求法院不受理之抗辯,主張BIPA規定之臉部外觀,其文意解釋應為物理上個人親自接受掃描所得之資訊,並非原告所主張以照片辨識之臉部外觀,但法院認為Shutterfly之主張並不合理,因此同意受理此案。 觀察該案可發現,儘管生物辨識提高資訊安全之保護,但相關法規範解釋仍待實務完備。另一方面,生物特徵資訊極易被他人蒐集,因此,如何建置蒐集個人辨識資訊及完善相關措施,也是推行生物支付措施所需突破的關口。
日本《經濟安全保障推進法》專家小組第1次會議提出「確保特定重要物資穩定供給之基本指導方針」2022年7月25日,日本政府召開今年5月公布的《經濟安全保障推進法》專家小組第1次會議,會議提出「確保特定重要物資穩定供給之基本指導方針」(特定重要物資の安定的な供給の確保に関する基本指針),指出在日益複雜的國際情勢及社會經濟結構變化中,自由經濟原則所承擔的風險逐漸增加,在經濟安全問題上,政府應有更多參與和監管,不可過度依賴市場競爭,並明確規定政府應適當指定符合下列4要件之物資為「特定重要物資」: 一、人民生存和經濟活動所必需 指被多數人廣泛使用、融入於各行各業中,在經濟合理的角度觀察,沒有替代品的物資。 二、避免過度依賴外部資源 指資源掌握於特定少數國家或地區,如供應中斷將造成日本境內重大影響者。或基於社會經濟結構變化和技術創新趨勢,是否有如不採取因應措施,可能有過度依存風險之外部資源。 三、因外部行為造成中斷供給的可能性 因外部行為(如供應國暫停出口)導致供應中斷,對人民生活與經濟活動發生重大影響者,包含發生之可能性。 四、除前述3要件外,認有特別必要性時 例如,近年有供應中斷紀錄,或出現供應中斷風險提升的傾向,須立即採取措施時等情形。 此外,日本政府規劃將減少「特定重要物資」對國外的進口依賴,並授權政府可對企業的原物料供應商及庫存進行調查,拒絕者將課以罰責,以確保「特定重要物資」的穩定供應。
智慧財產法院成立及運作的政策 正式啟動司法院於94年年終記者會時,正式發佈我國智慧財產法院即將成立及運作的政策。有鑒於國內外企業在台的專利、商標、著作權等紛爭越來越多,為了節省司法資源、快速釐清企業糾紛、不耗損社會資源等目的,智慧財產法院乃為司法現代化相當重要的一環。 我國的智財官司時,多是以刑事訴訟為主附帶民事官司,有別於歐美各國的智慧財產案件多以民事訴訟為主。未來智慧財產法院所管轄案件除了民事訴訟事件、刑事訴訟案件外,還包括有行政訴訟事件與強制執行事件,集中事權,專責審理智財權相關案件。此外,為了因應科技界日新月異的技術發展,在智慧財產法院扮演關鍵角色的「技術審理官」,主要負責輔助法官從事專業技術問題之判斷,因此除了由全職公務員-專利審查官或是商標審查官擔任外,亦可任用公私立大專院校之老師或專業研究機構之研究員。 另一方面,為避免大型企業利用資金優渥之優勢,打壓小型科技公司的發展,智慧財產訴訟中的「假處分」聲請規定,相較於現行民事訴訟法規定嚴格許多,假處分聲請人除提供擔保金外,還必須「強制釋明」理由,若是釋明不足者,法院可駁回其聲請。 目前司法院已研擬完成「智慧財產法院組織法草案」及「智慧財產案件審理法草案」的全部條文,並公布在司法院網站上,預定在立法院下會期提交立法。
英國發布人工智慧網路資安實務守則英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。