2017年12月14日美國聯邦通信委員會(Federal Communications Commission, FCC)以3票對2票表決通過,廢止自2015年來所採取網路寬頻服務的高壓監管規定,並恢復了原來所採取低管制監管框架。支持者與反對者分別來自兩個不同的黨派。 經過詳細的分析以及對消費者和利益相關者的評論廣泛審查後,委員會認為自2015年來對網路寬頻服務採取的高壓規定,對整個網路生態系統施加了巨大的成本。為了取代這個嚴格的框架,FCC重新採用2015年之前的傳統低管制監管框架。 FCC 特別要求行動寬頻服務業者應公開揭露其網路管理政策例如:如何處理網路安全與壅塞問題、服務內容與商業條款等,以利於消費者與業者進行有效選擇,並促進政府對寬頻業者的行為進行有效的監督。此外 ,FCC恢復了聯邦貿易委員會(Federal Trade Commission, FTC)的管轄權,以便在寬頻業者從事反競爭、不公平或欺騙行為時採取行動。 在對消費者的影響方面,自由市場的支持者認為,付費優先的作法,意味在寬頻基礎建設上會有更多投資,使得上網和整體資料傳輸速度大為增加。 為達上述目標,委員會所採取之具體措施如下: 將寬頻接取服務(包括固定與行動寬頻服務)重新歸類為資訊服務。 將行動寬頻接取服務恢復歸類為私人行動服務。 將網路服務提供者有關隱私保護、不公平、詐欺和反競爭行為之管轄權回歸由聯邦貿易委員會負責。 要求網路服務提供者向消費者、企業和委員會揭露有關其做法的訊息,包括阻止,限制,支付優先次序或附屬優先次序。 此外FCC又禁止各州限制擴建寬頻網路服務的法律。據FCC統計,大約20個州有限制社區寬頻網路服務活動的法律,這些州的法律不公平地限制政府部門與有線電視和電信寬頻服務提供商的競爭。 FCC通過該案後引發不少如Google、Facebook及Netflix等科技公司,與消費者保護環體齊力撻伐,認為ISP業者在FCC力挺下,將可隨意限制民眾上網瀏覽的內容,大企業因此具優先權,不利新創網路公司生存發展,且投下反對票的政黨表示,將率領各州對聯邦傳播委員會這項決定提出法律挑戰,透過訴訟尋求翻盤機會。
美國醫療保健領域對新興資料儲存系統理論「資料湖泊」(Data Lake)的應用在現今資訊流通快速蓬勃發展的時代,巨量資料(Big Data)帶來效率與生產力等龐大效益已無庸置疑。相較於將資料以「資料倉儲」(Data Warehouse)模式儲存,「資料湖泊」(Data Lake)被廣泛視為巨量資料快速演進的下一步。 美國的醫療保健領域為因應巨量資料發展並提升醫療保健系統的透明度與有責性,美國醫療保險與補助中心(Centers for Medicare & Medicaid Services, CMS)於2013年底建立CMS虛擬研究資料中心(Virtual Research Data Center, VRDC),讓研究員能夠以安全有效率的方式取得並分析CMS的龐大醫療保健資料。此種資料倉儲模式會對進入的資料預先分類,並整合為特定形式以指導後續分析的方式。缺點在於為讓資料更易於分享,會進行「資料清理」(data cleaning)以檢測及刪除不正確資訊並將其轉換成機器可讀取格式,各資料版本會被強制整合為特別形式,但資料清理和轉換的過程會導致明顯的數據流失,對研究產生不利的限制。有鑑於此,為更有效益的應用巨量資料,Pentaho首席技術官James Dixon提出新的資料儲存理論—資料湖泊(Data Lake),此概念於2011年7月21日首先被討論於美國《富士比》雜誌中,目前在英美國家公部門和民間企業間已被熱烈討論。 與Data Warehouse最大不同在於Data Lake可包含「未被清理的資料」(unclean data),保持其最原始的形式。故使用者可取得最原始模式的資料,減少資源上處理數據的必要,讓來自全國各政府機關的資料來源更易於結合。Data Lake主要有四點特性:1.以低成本保存巨量資料(Size and low cost)2.維持資料高度真實性(Fidelity)3.資料易取得(Ease of accessibility)4.資料分析富彈性(Flexible)。儲存超過百萬筆病患資料的加州大學歐文分校醫療中心(UC Irvine Medical Center)即以Hadoop架構為技術建立了一個Data Lake,該中心能以最原始的形式儲存各種不同的紀錄數據直到日後需要被分析之時,可協助維持資料的來源與真實性,並得以不同形式的醫療數據進行分析項目,例如患者再住院可能性的預測分析。 但相對的Data Lake在安全性和檢視權限上也有一定的風險,尤其是醫療保健領域,因為這意味著病患的資料在個資生命週期裡隨時可被取得,因此資訊的取得應被嚴密控制以維持各層級的安全與保障,在建立安全的Data Lake之前,必須審慎考慮誰有資訊檢視權限以及透過什麼媒介取得Data Lake中的資料等問題。
世界經濟論壇2020年十大新興科技報告,與健康和環境相關之前瞻科技發展備受矚目世界經濟論壇(World Economic Forum, WEF)於2020年11月10日發表「2020年十大新興科技報告」(Top 10 Emerging Technologies 2020),報告中提出10個近年出現,且被認為在未來5年內最具有正面改變社會潛力的新興科技,並說明除了關注這些科技帶來的改變外,也應關注其引發的風險。 2020年全球最密切關注的議題為健康與氣候變遷,也因此2020年被認為具有發展潛力的新興技術均與這兩個議題有關,包含:(1)無痛注射與測試用的微針技術(Microneedles);(2)太陽能化學(Sun-Powered Chemistry)利用可見光將二氧化碳轉換為普通材料,可作為合成藥物、清潔劑、化學肥料和紡織品的材料;(3)虛擬患者(Virtual Patients),替代人類做人體臨床試驗,比一般試驗更快更安全;(4)空間計算(Spatial Computing)以強化虛擬生活和現實的連結;(5)數位醫療(Digital Medicine)應用程式之發展可以診斷甚至治癒疾病;(6)電動飛航(Electric Aviation)裝置,例如電動推進器可以清除直接碳排放(direct carbon emissions),減少九成的燃料成本、五成維護成本和七成噪音汙染,降低整體航空旅程環境污染並提高效率;(7)低碳水泥(Lower-Carbon Cement)的發展作為氣候變遷下的新興建築材料;(8)量子感測(Quantum Sensing)做為高精準度計算方式,將於未來三到五年進入市場,並首重用於醫療和國防應用產業上;(9)新興零碳能源如綠氫(Green Hydrogen),可補充風力和太陽能;(10)全基因合成(Whole-Genome Synthesis)作為下一代細胞工程(cell engineering)尖端科技,使未來醫學得以治癒更多遺傳疾病。 報告中指出,雖然這些新興技術具有改變社會和產業的潛力,但卻無法確保技術本身是否能被妥善使用(Good is not guaranteed)。首先,這些技術仍需要龐大資金以達到成熟度和可利用的價格點(price point),才能與相關產業達成整合化、規模化。此外面對這些新興科技,決策者必須迅速針對可能引發的風險提出對應策略,例如數位醫療在手機應用程式上會引發政府許可、資料利用、隱私等問題。因此,政策與產業如何協作,使用相關科技、限制濫用並控制技術中風險等,是面對是類新興科技應積極考量的方向。
英國發布「人工智慧:機會與未來決策影響」政策報告,並聚焦人工智慧運用及管理英國科學辦公室於2016年11月9日,發布一份政策報告:「人工智慧:機會與未來決策影響(Artificial intelligence: opportunities and implications for the future of decision making)」,介紹人工智慧對於社會及政府的機會和影響,此份政策報告並提出以下各項重要建議: (一)關於人工智慧及應用界定與發展 人工智慧是指由人工製造系統所表現出來的智慧。不僅是將現有的流程自動化,還包含制定目標,並利用電腦程式實現這些目標,常見案例包括線上翻譯、語音辨識、搜尋引擎篩選排序、垃圾郵件過濾、透過用戶回饋改善線上服務、預測交通流量、環境或社會經濟趨勢發展觀察等。 (二)未來對社會及政府利益及衝擊 人工智慧針對提高生產力有巨大的潛力,最明顯的就是幫助企業或個人更有效地運用資源,並簡化大量資料的處理,例如Ocado 及 Amazon這樣的公司正充份利用人工智慧改善倉儲及銷售網路系統,使得客戶可便利快速購得網購商品。 目前,政府也日益增加相關技術的運用,以提高公共服務效率,使資源達到最佳化分配;減少決策者被誤導的可能;使政府決策透明化;確保各部門更了解人民的意見。然政府在利用人工智慧及巨量資料時,應遵守倫理使用指南,並遵守英國資料保護法及歐盟一般資料保護規則等相關法規。 在巨量資料、機器人、自動系統對於勞動市場的衝擊一直都是關注的議題,對於面臨未來工作結構的轉型及相關技術人員的進修及培養,應及早規劃,以適應未來的轉變。 (三)關於相關道德及法律風險管理課題 人工智慧可能潛在相關道德倫理問題。許多專家認為政府應積極管理並降低風險發生可能性,可從以下兩個面向思考: (1)研究機器學習與個人資料運用結合時,對個人自由、隱私和同意等概念的影響。 (2)調適由人工智慧作決策行為時的歸責概念和機制。 有關實際案例之研究,則包括,執法單位在應用預測技術時,應避免以種族、國籍、地址作為標準,並嚴守無罪推定原則,以防止民眾受到歧視或不公平的指控;透過人工智慧可從公開資料推測出某些私人訊息或其親朋好友的消息,此訊息即可能超出原先個人同意披露的內容;原先匿名化及去識別化的訊息,因人工智慧功能加強,導至可能被重新識別,故須定期檢視該保護措施是否足夠。另外,人工智慧的演算偏差可能導致偏見的風險,為了降低這種風險,技術人員應採取對應措施。 針對責任及疏失的判斷,目前尚無太多的實務案例,但為保持對使用人工智慧的信任,仍需有明確的歸責制,可能有必要讓首席執行長或高級主管對人工智慧做出的決策負最終責任。許多專家也建議,部分技術內容須保持透明度,以確定技術使用時是否有盡到相關注意義務。 人工智慧已成為未來發展趨勢之一,對於社會整體層面影響將越來越深,新的技術除了可提升生產力,帶來便利的生活,同樣也會帶來衝擊。為促進相關產業發展及推展新技術的使用,應打造技術發展友善環境,並對於公眾安全進行相關風險評估,如果風險屬於現有監管制度範圍,應評估是否可充分解決風險,或是須要做相對應的調適。另外,在人工智慧融入現實世界同時,相關業者應注意相關產品安全性、隱私權保護和從業人員的倫理教育,以提高大眾對新技術的接受及信賴,並確保對於未來挑戰及轉變已做好萬全準備。