有鑑於加密資產(crypto-asset)投資交易潛在風險與市場波動性,美國聯邦準備理事會(Federal Reserve Board)、聯邦存款保險公司(Federal Deposit Insurance Corporation, FDIC)與通貨監理局(Office of the Comptroller of the Currency, OCC)於2023年2月23日發布聯合聲明,提出加密資產增加銀行流動性風險情境,例如穩定幣因市場狀況之變動,導致銀行擠兌使大量存款流出,由於存款流入和流出的規模與時間的不可預測性,加密資產相關資金恐造成流動性風險提高,提醒銀行機構應用現有的風險管理原則審慎因應。
依據聲明內容,有效風險管理作法包括:(1)了解加密資產相關實體存款潛在行為的直接和間接驅動因素,以及這些存款易受不可預測波動影響的程度;(2)銀行機構應積極監控加密資產資金來源存在的流動性風險,並建立有效的風險管理控制措施;(3)應與加密資產存款相關的流動性風險納入應變計劃(contingency funding planning),例如流動性壓力測試;(4)評估加密資產相關實體存款之間關聯性。該聲明並強調銀行機構應建立風險管理機制及維持適當有效之內部控制制度,以因應加密資產高流動性風險,確保經濟金融穩健發展。
日本獨立行政法人情報處理推進機構於2025年7月發布《資料素養指南(下稱《指南》)》,指南分為三大章,第一章為整體資料環境之變化;第二章為資料治理;第三章為資料、數位技術活用案例與工具利用。指南第二章中的資料處理篇,主要為促使企業理解有利活用於數位技術與服務的資料管理方法。 《指南》資料處理篇指出,資料的生命週期涵蓋資料設計、資料蒐集、外部資料連動、資料整合、資料處理、資料提供、資料累積以及資料銷毀等不同階段。《指南》建議在資料生命週期的各階段,盡可能的不要有人類的介入。舉例而言,資料蒐集可以透過感測器或系統進行。該建議的目的在於,人類介入資料生命週期,僅會引起輸入錯誤或是操作錯誤等風險。 此外,《指南》亦於資料處理篇中針對資料治理給出四點建議,分別如下: (一)資料是企業的重要資產,因此應重視其管理方式。管理方式涵蓋帳號密碼、透過生物辨識技術進行資料接觸管理、Log檔之取得、系統設定禁止使用USB等方式。 (二)資料治理的重點在於對人政策。除了向員工強調不要開啟不明網站及釣魚信件以外,企業亦應與員工建立堅實的信賴關係。 (三)資料公開或流通時應注意,如果不希望提供後的資料被二次利用,應於雙方間的資料利用契約中敘明。此外,由於資料具備易於複製及傳輸的特性,因此在公開或流通資料時,應考量適用諸如時戳技術等可確保資料原本性或使資料無法被竄改的數位技術。 (四)資料銷毀如果僅是單純的刪除資料,有透過數位技術找回資料的可能性。因此,除可評估委由專門進行資料銷毀服務的公司協助以外,由於銷毀資料經由個人電腦外洩之事件時有所聞,故亦應留意個人電腦之資料管理。 我國企業如欲將資料活用於數位技術或服務,除可參考日本所發布之《指南》資料處理篇以外,亦可參考資訊工業策進會科技法律研究所創意智財中心所發布之《重要數位資料治理暨管理制度規範》,以建立自身資料處理流程,進而強化資料管理能力。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
英國上訴法院法官對軟體專利之必要性表示懷疑英國上訴法院智慧財產法專業法官Robin Jacob於2006年1月13日對是否應該核發軟體專利感到懷疑,並對美國專利法所奉行的原則-「任何在陽光下由人類所創造之物,皆可以被賦予專利」-表示不能茍同。該法官認為,從美國軟體專利實務在搜尋既存技術(Prior Art)時之遭遇來看,將專利核發予事實上僅具一般性效能之軟體,為軟體專利不可避免的現象,如此一來,在搜尋既存技術的過程中將產生極大問題。 軟體專利存在的必要性一直受到以「自由資訊基礎建設基金會」(the Foundation for a Free Information Infrastructure,簡稱FFII)為首之社會運動團體之懷疑,但截至目前為止仍極少有針對此一爭議的研究。歐洲委員會為此補助一個「以法律、技術與經濟層面切入探討軟體專利對創新之影響」的研究計畫,惟該計畫需待2007 年方能有所成果。無獨有偶,歐洲議會於2005年7月駁回「軟體專利指令」(全名:the directive on the patentability of computer-implemented inventions,俗稱software patent directive),理由是,該指令之通過將造成歐洲軟體專利與美國一樣過度氾濫的窘境。
歐盟提出人工智慧法律框架草案歐盟執委會於2020年2月公布《人工智慧白皮書》(AI White Paper)後,持續蒐集各方意見並提出新的人工智慧規範與行動。2021年4月針對人工智慧法律框架提出規範草案(Proposal for a Regulation on a European approach for Artificial Intelligence),透過規範確保人民與企業運用人工智慧時之安全及基本權利,藉以強化歐盟對人工智慧之應用、投資與創新。 新的人工智慧法律框架未來預計將統一適用於歐盟各成員國,而基於風險規範方法將人工智慧系統主要分為「不可接受之風險」、「高風險」、「有限風險」及「最小風險」四個等級。「不可接受之風險」因為對人類安全、生活及基本權利構成明顯威脅,故將被禁止使用,例如:政府進行大規模的公民評分系統;「高風險」則是透過正面例舉方式提出,包括:可能使公民生命或健康處於危險之中的關鍵基礎設施、教育或職業培訓、產品安全、勞工與就業、基本之私人或公共服務、可能會干擾基本權之司法應用、移民與庇護等面向,而高風險之人工智慧在進入市場之前須要先行遵守嚴格之義務,並進行適當風險評估及緩解措施等。「有限風險」則是指部分人工智慧應有透明度之義務,例如當用戶在與該人工智慧系統交流時,需要告知並使用戶意識到其正與人工智慧系統交流。最後則是「最小風險」,大部分人工智慧應屬此類型,因對公民造成很小或零風險,各草案並未規範此類人工智慧。 未來在人工智慧之治理方面,歐盟執委會建議各國現有管理市場之主管機關督導新規範之執行,且將成立歐洲人工智慧委員會(European Artificial Intelligence Board),推動人工智慧相關規範、標準及準則之發展,也將提出法規沙盒以促進可信賴及負責任之人工智慧。
司法改革的一小步,替代性紛爭解決機制的一大步-談日本「ADR 利用促進法