開放非銀行事業從事預付式行動付款服務法制議題之研究

刊登期別
2006年03月
 

※ 開放非銀行事業從事預付式行動付款服務法制議題之研究, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=766&no=0&tp=1 (最後瀏覽日:2026/01/20)
引註此篇文章
你可能還會想看
中國大陸通過《中華人民共和國電子商務法》 針對「電子商務平台經營者」制定專節

  中國大陸於2018年8月31日第13屆全國人大常務委員會表決通過了《中華人民共和國電子商務法》(以下簡稱《電商法》),並將於2019年1月1日實施 。《電商法》首條揭示了「保障電子商務各方主體合法權益、規範電子商務行為、維護市場秩序」之意旨,除以「電子商務經營者」為主要規範對象外,亦涵蓋了法律行為、支付與物流、爭議解決等各個交易層面。   有鑑於電子商務平台對市場的主導作用,《電商法》特別針對「電子商務平台經營者」(以下簡稱「平台」)制定專節,要求其審核平台內經營者之資質資格,並課予其保障智慧財產權及消費者人身、財產安全之義務。分述如下: 為因應電子商務平台上仿冒偽劣品氾濫之窘境,《電商法》規定平台於接收權利人所發送之侵權通知後,須採取刪除、屏蔽、斷開鏈接、終止交易和服務等行動,否則需就損害擴大之部分,與平台內經營者負連帶責任。此外,平台「明知」或「可得而知」平台內經營者已侵害智慧財產權,而未採取必要措施者,亦須與侵權行為人承擔連帶責任。 如商品或服務涉及消費者之生命、健康,則平台負有:(1) 對平台內經營者資質資格之審核義務;以及(2) 對消費者之安全保障義務。如因未履行上開義務而造成消費者損害,需與該平台內經營者承擔「相應的責任」;換言之,平台是否踐履相關義務應依實際個案認定。同時增加行政罰規定,違者由市場監督管理部門責令限期改正,最重並得課處200萬元之罰款 。

歐盟提出先進製造先進歐洲報告與行動方針

從思科(Cisco)策略看公司併購

  全球最大網路設備業者思科(Cisco)公司在去年1月同意以8.3億美元併購以攔截與過濾垃圾郵件著名的軟體供應商IronPort Systems,以強化思科在資訊安全相關軟體方面的實力。思科購入IronPort公司後,不僅可為其客戶提供包括垃圾郵件過濾軟體和其他資安防護軟體,而此一併購案也象徵思科公司除本業的網路設備(router)外,也跨入資安軟體的領域進而挑戰其他大型防毒軟體業者(如賽門鐵克Symantec)。   以併購取得其他公司的商標、專利或人力資源等,在競爭激烈的商場十分常見,本來不足為奇,但此案值得注意的是原本思科公司的併購策略(acquisition strategy)是指派專人,將被併購的公司迅速融入思科體系,除取得原有的資源外,也可以快速地進入市場,此種方式亦是目前大多數廠商所採行的方法。   但自2003年後思科公司開始思考採取不同的併購方式:保留被併購公司的商標與行銷團隊,除可避免併購之後所可能產生的文化衝擊、制度磨合等問題,透過新的方式思科公司仍然獲得極大的收益。近來常聽聞國內的廠商積極併購其他公司,除成本或智慧財產等,管理制度亦是考量的重點之一,或許思科公司的策略可以提供給國內廠商參考。

英國發布人工智慧網路資安實務守則

英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。

TOP