美國聯邦通訊傳播委員會(Federal Communications Commission, FCC )主席Julius Genachowski表示,美國政府正努力規劃商業用途頻譜(spectrum)供給量,以滿足通訊科技服務發展需求。惟諸多產業專家預測無線通訊服務運用導致頻寬需求快速增加,無線通訊擁塞情況恐將嚴重惡化。
儘管FCC已藉頻譜拍賣釋出不少頻譜,且2009年6月全美廣電數位化後(DSO),一定要件開放業者毋須取得頻譜執照便可使用所謂的「閒置頻譜」(interleaved/white space),但是頻譜匱乏的問題仍無法解決。
對此,FCC允諾將會弭平頻譜供給需求間的落差,並且列為FCC的首要任務之一。未來FCC將透過非商用頻譜重分配與鼓勵發展更有效率使用頻譜之科技,以期解決頻譜不足的窘境。
產業界與公眾安全通訊相關組織呼籲FCC應提供更多頻譜供無線通訊服務使用。不過FCC亦要求資通訊產業於研發行動寬頻新產品時,須設想頻譜供給不足,研發更有效率使用頻率的通訊技術。產官學三者間,必須相互配合與協調(尤其是業者間的「不歧視原則」),方能有效解決網路通訊擁塞及頻譜匱乏問題。
比利時法院針對報業出版組織Copiepresse控告網路搜尋引擎巨擘Google侵害著作權一案,於二月十三日做出一審判決。該法院認為 Google未取得授權,在Google News新聞搜尋之服務中片斷重製原告之報導內容,並以重製的方式將受到保護之著作傳播給公眾,該行為已侵害到Copiepresse之著作權。法院除了下令Google刪除搜尋引擎中所出現的新聞報導片斷,並按該網站刊登的時間為基準,計算一天兩萬五千歐元的賠償金,Google應給付總金額高達三百四十五萬歐元的賠償金於Copiepresse。 Google的主要答辯指出,其係為協助使用者在該網站上尋找資訊的搜尋引擎,而非擁有自己資訊的入口網站。Google News也只針對使用者所輸入之搜尋關鍵字所做出之新聞頭條匯集及文章聯結,該行為應受到著作權法中「合理使用」(Fair Use) 之保護。而對搜尋結果之頭條、內容片斷及縮小圖片顯示,Google則抗辯此一作法已替Copiepresse網站吸引來更多想要閱讀全文之讀者,並為其締造更高的網路流量。 Copiepresse則主張,Google因在其網站刊登片斷重製之報導內容而受有廣告收益,就法律面而言已是侵害行為所得之利益。該組織的報導內容出現在Google的快取頁面,已使得該片斷的報導內容得自Google的網站中免費取得。通常許多報業僅將其報導文章的資料庫提供給付費會員瀏覽。 對此判決結果,Google已決定上訴。 全球媒體業者都對此判決密切注意。Google去年八月已和美聯社達成和解。而法國法新社去年三月控告Google的快取網頁侵害著作權乙案,目前仍在法院審理中。而其它入口網站公司YAHOO! 、AOL、Microsoft等已付費於法新社取得授權刊登其新聞文章內容。
合成資料(synthetic data)「合成資料」(synthetic data)的出現,是為了保護原始資料所可能帶有的隱私資料或機敏資料,或是因法規或現實之限制而無法取得或利用研究所需資料的情況下,透過統計學方法、深度學習、或自然語言處理等方式,讓電腦以「模擬」方式生成研究所需之「合成資料」並進行後續研究跟利用,透過這個方法,資料科學家可以在無侵犯隱私的疑慮下,使合成資料所訓練出來的分類模型(classifiers)不會比原始資料所訓練出來的分類模型差。 在合成資料的生成技術當中,最熱門的研究為運用「生成對抗網路」(Generative Adversarial Network, GAN)形成合成資料(亦有其他生成合成資料之方法),生成對抗網路透過兩組類神經網路「生成網路」(generator)與辨識網路(discriminator)對於不同真偽目標值之反覆交錯訓練之結果,使其中一組類神經網路可生成與原始資料極度近似但又不完全一樣之資料,也就是具高度複雜性與擬真性而可供研究運用之「合成資料」。 英國國防科技實驗室(Defense Science and Technology Laboratory, DSTL)於2020年8月12日發布「合成資料」技術報告,此技術報告為DSTL委託英國航太系統公司(BAE Systems)的應用智慧實驗室(Applied Intelligence Labs, AI Labs)執行「後勤科技調查」(Logistics Technology Investigations, LTI)計畫下「資料科學與分析」主題的工作項目之一,探討在隱私考量下(privacy-preserving)「合成資料」當今技術發展情形,並提供評估技術之標準與方法。 技術報告中指出,資料的種類多元且面向廣泛,包含數字、分類資訊、文字與地理空間資訊等,針對不同資料種類所適用之生成技術均有所不同,也因此對於以監督式學習、非監督式學習或是統計學方法生成之「合成資料」需要採取不同的質化或量化方式進行技術評估;報告指出,目前尚未有一種可通用不同種類資料的合成資料生成技術或技術評估方法,建議應配合研究資料種類選取合適的生成技術與評估方法。
加拿大交通部提出加拿大自駕系統安全評估文件加拿大交通部(Department of Transport Canada)於2019年1月發布「加拿大自駕系統安全評估(Safety Assessment for Automated Driving Systems in Canada)」文件,該文件將協助加拿大企業評估其發展高級(SAE第三級至第五級)自駕層級車輛之安全性,並可與美國相關政策進行整合。該文件指出,因相關技術尚在發展之中,不適合使用強制性規範進行管制,因此將利用引導性之政策措施來協助相關駕駛系統安全發展。加拿大交通部於文件中指出可用於評估目前自駕車輛研發成果之13種面向,並將其分類為三個領域: 自駕技術能力、設計與驗證:包含檢視車輛設計應屬何種自駕層級與使用目的、操作設計適用範圍、物件及事件偵測與反應、國際標準、測試與驗證等。 以使用者為核心之安全性:包含安全系統、人車界面與控制權的可取得性、駕駛/使用人能力與意識教育、撞擊或系統失靈時的運作等。 網路安全與資料管理:包含管理網路安全風險策略、售後車輛安全功能運作與更新、隱私與個資保障、車輛與政府分享之資訊等。 加拿大交通部鼓勵企業利用該文件提出安全評估報告並向公眾公開以增進消費者意識,另一方面,該安全評估報告內容也可協助加拿大政府發展相關安全政策與規範。
歐盟執委會公布《可信賴的AI政策及投資建議》歐盟執委會於2018年6月成立人工智慧高級專家組(The High-Level Expert Group on Artificial Intelligence, AI HLEG),主要負責兩項工作:(1)人工智慧倫理準則;(2)人工智慧政策與投資建議。並於2019年4月8日提出《可信賴的人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI),2019年6月公布之《可信賴的AI政策及投資建議》(Policy and Investment Recommendations for Trustworthy Artificial Intelligence)則是人工智慧高級專家組所交付之第二項具體成果。 該報告主要分為兩大部分,首先第一部分是要透過可信賴的人工智慧建立對歐洲之正面影響,內容提及人工智慧應保護人類和社會,並促進歐洲公司各部門利用人工智慧及技術移轉,而公部門則扮演人工智慧增長及創新之催化劑,以確保歐洲具有世界一流之研究能力;第二部分則是影響歐洲各成員國建立可信賴之人工智慧,內容則提及將發展人工智慧相關基礎設施、教育措施、政策規範及資金投資,同時合法、有道德的使用各項數據。 在本報告中關於法規面的建議則是進一步制定政策和監管框架,確保人工智慧在尊重人權、民主及創新下發展,因此將建立人工智慧政策制定者、開發者及用戶間的對話機制,若是遇到將對社會或是人類產生重大影響之敏感性人工智慧系統,除透過歐洲人工智慧聯盟(The European AI Alliance)進行對話之外,也需要在尊重各成員國之語言及文化多樣性下展開協調機制。另外,報告中也特別提到如果政府以「保護社會」為由建立一個普遍的人工智慧監督系統是非常危險的作法,政府應該承諾不對個人進行大規模監視,並在遵守法律及基本權利下進行人工智慧系統之發展。