歐盟網路與資訊安全局發布「行動支付與電子錢包安全防護」報告

  為因應探討並強化網路安全環境,歐盟網路與資訊安全局(European Union Agency for Network and Information Security , ENISA)2016年12月發布「行動支付與電子錢包安全防護」研究報告(Security of Mobile Payments and Digital Wallets)。歐盟網路與資訊安全局ENISA主要係因,近來行動支付興起,利用行動支付方式買賣貨品,係象徵著朝向數位化轉換趨勢,消費者希望透過更便捷的方式購物避免帶著實體錢包和一堆卡片,增加購物的不便。但是使用電子錢包和行動支付並非全然沒有安全疑慮,根據2015年的一項調查,有百分之20的美國消費者對於行動支付的過程中可能遭到有心人士擷取個人資料,這就表示此乃使用行動支付的主要擔心重點,有13%使用者擔心自己的電話遭到駭客入侵。此外根據另一項調查,針對九百名資安專家所做的調查顯示,僅有23%的的人員認為目前現有的安全機制足以防範個資外洩,但有47%的人員認為現有的機制缺乏安全性,但當中也有百分之30的回覆認為現在的安全機制是否安全不能確定。因此,目前而言,安全防護可謂是消費者最關心的重點,且對於安全的疑慮亦使得行動支付沒有辦法大量推行採用。

  因此歐盟網路與資訊安全局ENISA於此報告提出了目前經確認的主要威脅有:

  1. 行動用戶的安全威脅:任意裝設惡意軟體、釣魚軟體、社交工程軟體。
  2. 行動設備威脅:行動設備遭竊或遺失與不當近用。
  3. 行動支付與電子錢包威脅:逆向工程、竄改支付軟體、使用在滲透到系統之後,會隱藏登錄項目、檔案或處理序等資源的一種軟體。
  4. 消費者威脅:POS惡意軟體、MiTM、重放攻擊。
  5. 付款服務提供者威脅:付款系統與資料連結崩潰的疑慮。
  6. 支付網路提供者威脅:代碼服務崩潰、拒絕服務。
  7. 發行商威脅:付款授權流程崩潰與代碼資料崩潰。
  8. 行動支付軟體提供者威脅:機敏個資外洩、雲端客戶資訊管理遭到入侵、代碼服務拒絕。

  因此有鑑於行動支付產業目前仍在新興階段,欠缺明確標準,業者間的自主管理顯得相當重要,所以網路與資訊安全局ENISA提出了一些得以遵循的建議與標準:

  1. 消費者在使用行動支付的服務軟體時,必須採取多項最低安全防護措施。
  2. 行動主機提供業者應該確保軟體定時更新,並且修補安全上的漏洞,針對安全性與近用用戶資料的可能性部分加強。
  3. 行動支付的應用程式提供者,應該再提供服務給消費者時,同時提供消費者資訊,本應用軟體做了何種安全防護,供消費者知悉。
  4. 行動支付業者應當建立詐騙監控機制。

  網路與資訊安全局ENISA提出上述建議與標準,主要係希望業者採用這樣的標準或好習慣的建議後,可以對於消費者、零售商、銀行等業者產生益處。

相關連結
你可能會想參加
※ 歐盟網路與資訊安全局發布「行動支付與電子錢包安全防護」報告, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7773&no=55&tp=1 (最後瀏覽日:2026/01/25)
引註此篇文章
你可能還會想看
關於iPod專利的戰爭越演越烈

  蘋果電腦 (Apple Computer Inc.) , iPod 製造商,已經提起第二項訴訟以反擊其競爭對手, MP3 製造商創新科技 (Creative Labs Inc.) 所提出之專利訴訟。   以新加坡為基地的創新科技,世界第二大數位音樂播放器銷售商,上個月在加州的美國聯邦地方法院,控告蘋果電腦的 iPod 音樂播放器侵犯關於該公司旗下 Zen MP3 播放器介面的專利。同時,該公司也要求美國國際貿易委員會 (International Trade Commission, ITC) 禁止 iPod 在美國的販售與行銷。   蘋果電腦除了向威斯康辛的美國聯邦地方法院提出反訴之外,隨後再於上週向德州的美國聯邦地方法院控告創新科技的可攜式音樂播放器侵犯其數件關於軟體以及系統的專利,包括 MP3 在電腦上的顯示方式、如何編輯 MP3 播放器資料以及圖示的安排等。   創新科技發言人 Phil O'Shaughnessy 表示,最近數月以來,創新科技已經向蘋果電腦提出若干「溫和的解決方案」。他也表示,於交涉期間,或任何其他時間,蘋果電腦從未提及其列舉於訴訟中的那些專利。並且,創新科技已經預料到蘋果電腦的報復行動,也已經作好準備。

IEA 發表「德國能源政策 2013 年檢閱報告」

歐盟創業教育政策推動對我國創業人才培育之啟示

歐盟議會發布《可信賴人工智慧倫理準則》

  2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。  問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。

TOP