加密貨幣經濟襲捲全球,國際貨幣組織(IMF)總裁Christine Lagarde於官方網站發表對加密貨幣經濟可能涉及之風險及未來各界應如何共同應對之看法;認為加密貨幣有無限發展之潛力,其所應用之技術不僅提升金融產業發展,更為其他領域注入創新技術,惟發展之同時,潛在不法風險逐漸浮上檯面,加密貨幣不受中央銀行監管,並因其匿名性而容易成為洗錢、資恐的全新金融犯罪工具;另外,全球加密貨幣交易活動越發頻繁,交易價格的極端波動性,以及與傳統金融體系之間的關聯不明確,皆可能危害全球金融之穩定性。
Christine Lagarde認為加密貨幣交易之監管,與監管傳統金融所制定之政策並無二致,皆應以「確保金融穩定性和保護消費者」為首要政策,因此,提出幾個應對方向:
面對加密貨幣價格的波動性,各界有不同解讀,有認為這只是一時狂熱所造成,終將泡沫化;亦有認為就如同物聯網發展初期革命一般,加密貨幣將破壞整個金融體系,取代現有的法定貨幣;惟Christine Lagarde表示事實應該是介於這兩個極端想法之間,各界不應片面否定加密貨幣,應採包容之看法迎接這項新科技,更應正視其潛在之危險。
國內現已有多家虛擬貨幣交易平台實際運營,為保護消費者權益,避免國內虛擬交易平台淪為洗錢、資恐行動之犯罪溫床,日前法務部已邀集金管會、內政部、央行、警政署、調查局等單位進行跨部會協商,擬於收集各界意見後,修訂相關規範,以利我國對於虛擬貨幣監管之政策方向與範圍能符合各方期待。
延續過去兩年針對全國寬頻網路服務進行檢視,FCC在2013年2月公布第三次「美國寬頻測量報告」(Measuring Broadband America)。這份報告有別於過去,將受測技術從DSL、有線電視與光纖,涵蓋至衛星寬頻,使資訊更加多元。此外,網路服務供應商(Internet Service Provider,ISP)在今年尖峰時段(工作日晚間7點至9點)提供寬頻實際速度與網速的契合率達97%,而較2011、2012年進步,因此,這份報告的另一個重點,便是提出寬頻速度與廣告相符的三大關鍵: 1.ISP業者盡力改善網路效能(Network Performance),而非調降牌告價(Speed Tiers )。 2.民眾接納更快速的網路意願,更甚過往。FCC指出,消費者訂閱網速的層級,逐漸從每秒14.3Mbps ,發展至15.6 Mbps。至於,使用網速低於1Mbps、或是1Mbps到3Mbps的民眾,近年也逐步採用更高速的網路。 3.衛星寬頻的進步:雖然,衛星技術在傳輸上仍有延遲的缺陷,但是,有近90%的民眾於尖峰時段,得到超過業者寬頻廣告速度的140%(業者宣稱具有12Mbps),使消費者感受不出網路尖峰期。 為使2015年實現50Mbps寬頻網路具有1億家戶可連結,美國逐步發展國家寬頻計畫(National Broadband Plan,NBP)。FCC避免寬頻廣告速度與實際速度不符影響NBP發展,未來將要求ISP業者對於網路牌告負起責任(Accountability),藉此增加市場競爭性與提高資訊透明度。以「美國寬頻測量報告」為例,藉由委員會、產業與其他利益相關人合作的方式,促進資訊的透明,使消費者在取得訊息後,有能力做出正確的決定,便是一種提高透明度的方式。 雖然,FCC認為寬頻網路進步與民眾採納較高速的網路,對於市場發展是一項利多,但部分輿論卻認為這與2011年12月31日FCC網路接取報告(Internet Access Report)結論相距甚遠。根據報告顯示,美國有高達42%的民眾下載速度不到3 Mbps、上傳速度不到769 kbps,而這與「美國寬頻測量報告」結果,確實大相逕庭。無論如何,可以窺見FCC視民眾使用意願與網路基礎建設同等重要,因此,如何增加消費者選擇較高速的網路,將是市場未來發展的關鍵。
雲端運算所涉法律議題雲端運算(Cloud Computing),是一種基於網際網路的運算方式,用以共享軟硬體資源、依需求提供資訊給電腦和其他裝置。本質上其實就是分散式運算 Distributed Computing,其主要應用是讓不同的電腦同時協助你處理運算,故只要具備兩台以上電腦,讓他們之間互相溝通,協助您處理工作,就是基本的分散式運算。 雲端運算是繼1980年代大型電腦到用戶端-伺服器的大轉變之後的又一種巨變。使用者不再需要了解「雲端」中基礎設施的細節,不必具有相應的專業知識,也無需直接進行控制。雲端運算概念下描繪了一種基於網際網路而新增加的新興IT服務、使用和交付模式,藉由網際網路來提供各種不同的資源、服務功能而且經常是虛擬化的。 「雲端運算」供應模式以及實用定義如下: ‧ 軟體服務化 (SaaS):透過網際網路存取雲端的應用程式 (例如:Salesforce.com、趨勢科技 HouseCall)。 ‧ 平台服務化 (PaaS):將客戶開發的應用程式部署到雲端的服務 (例如:Google AppEngine 與 Microsoft Azure)。 ‧ 基礎架構服務化 (IaaS):有時亦稱「公用運算」(Utility Computing),意指處理器、儲存、網路以及其他資源的租用服務 (例如:Amazon 的 EC2、Rackspace 以及 GoGrid)。 雲端運算服務所涉及的法律議題相當廣泛,包含隱私權、個人資料保護、資料管轄權、契約責任、智慧財產權保護與營業秘密等。在隱私權問題方面,使用者的隱私或機密風險,乃至權利義務狀態會因為雲端供應商所提供之服務與隱私權政策(privacy policy)而有顯著不同,也可能因為資訊型態或雲端運送使用者類型不同而有差異。在雲端運算服務契約方面,發生資訊安全事件導致資料失竊或毀損時,供應商責任或注意義務如何於契約中合理分配風險,亦是契約方面重要議題。
世界經濟論壇發布《人工智慧公平性和包容性藍圖》白皮書世界經濟論壇(World Economic Forum, WEF)於2022年6月29日發布《人工智慧公平性和包容性藍圖》白皮書(A Blueprint for Equity and Inclusion in Artificial Intelligence),說明在AI開發生命週期和治理生態系統中,應該如何改善公平性和強化包容性。根據全球未來人類AI理事會(Global Future Council on Artificial Intelligence for Humanity)指出,目前AI生命週期應分為兩個部分,一是管理AI使用,二是設計、開發、部署AI以滿足利益相關者需求。 包容性AI不僅是考量技術發展中之公平性與包容性,而是需整體考量並建立包容的AI生態系統,包括(1)包容性AI基礎設施(例如運算能力、資料儲存、網路),鼓勵更多技術或非技術的人員有能力參與到AI相關工作中;(2)建立AI素養、教育及意識,例如從小開始開啟AI相關課程,讓孩子從小即可以從父母的工作、家庭、學校,甚至玩具中學習AI系統對資料和隱私的影響並進行思考,盡可能讓使其互動的人都了解AI之基礎知識,並能夠認識其可能帶來的風險與機會;(3)公平的工作環境,未來各行各業需要越來越多多元化人才,企業需拓寬與AI相關之職位,例如讓非傳統背景人員接受交叉培訓、公私協力建立夥伴關係、提高員工職場歸屬感。 在設計包容性方面,必須考慮不同利益相關者之需求,並從設計者、開發者、監督機關等不同角度觀察。本報告將包容性AI開發及治理整個生命週期分為6個不同階段,期望在生命週期中的每個階段皆考量公平性與包容性: 1.了解問題並確定AI解決方案:釐清為何需要部署AI,並設定希望改善的目標變量(target variable),並透過制定包容性社會參與框架或行為準則,盡可能實現包容性社會參與(特別是代表性不足或受保護的族群)。 2.包容性模型設計:設計時需考慮社會和受影響的利益相關者,並多方考量各種設計決策及運用在不同情況時之公平性、健全性、全面性、可解釋性、準確性及透明度等。 3.包容性資料蒐集:透過設計健全的治理及隱私,確定更具包容性的資料蒐集路徑,以確保所建立之模型能適用到整體社會。 4.公平和包容的模型開發及測試:除多元化開發團隊及資料代表性,組織也應引進不同利益相關者進行迭代開發與測試,並招募測試組進行測試與部署,以確保測試人群能夠代表整體人類。且模型可能隨著時間發展而有變化,需以多元化指標評估與調整。 5.公平地部署受信任的AI系統,並監控社會影響:部署AI系統後仍應持續監控,並持續評估可能出現新的利益相關者或使用者,以降低因環境變化而可能產生的危害。 6.不斷循環發展的生命週期:不應以傳統重複循環過程看待AI生命週期,而是以流動、展開及演變的態度,隨時評估及調整,以因應新的挑戰及需求,透過定期紀錄及審查,隨時重塑包容性AI生態系統。 綜上,本報告以包容性AI生態系統及生命週期概念,期望透過基礎設施、教育與培訓、公平的工作環境等,以因應未來無所不在的AI社會與生活,建立公司、政府、教育機構可以遵循的方向。
歐盟提出人工智慧法律調和規則草案歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。 歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。 本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。 AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。