本文為「經濟部產業技術司科技專案成果」
美國眾議院情報委員會終於發佈了對中國兩大電信通訊商「中興」(ZTE)和「華為」(Huwei)的調查報告,報告結論指出,「中興」和「華為」確實危及美國的國家安全。 情報委員會呼籲美國政府機關和企業,尤其是政府機關,不應該讓「中興」、「華為」成為資訊系統相關設備或零組件的供應商,因為他們會安裝「後門程式」(backdoor)為中國政府和軍方進行間諜活動和網路攻擊,並敦促美國企業的經營者,應該阻絕未來收購、購併「中興」、「華為」的可能性。情報委員會亦呼籲美國國民不要購買任何由「中興」、「華為」製造的任何電子設備,包括手機、平板電腦、數據機等,否則個人資料將在不知不覺中全數洩漏給中國。 「華為」的建立者任正非(Ren Zengfe),同時也是「華為」執行長,1987年離開中國軍方創立「華為」,情報委員會認為他始終與中國政府和軍方保持密切聯繫,而「華為」拒絕配合情報委員會的調查,「中興」也不願提供完整的內部資料,報告指出:「中興」和「華為」應該讓公司內部架構、組織和財務管理及經營運作更加透明化,盡到美國法制要求的應盡義務」。 但英國政府表明支持「華為」,只是會採取必要的保護措施維護國家安全。「華為」在英國具有相當龐大的影響力,2001年在英國正式營運,投資了一億五千萬英鎊,並創造了650個工作機會,主要提供英國電信業者於寬頻服務的相關硬/軟體設備。另外英國手機營運商EE(Everything Everywhere)所發行英國首套的4G商用網,當中的行動作業系統便是使用「華為」的技術,EE的發言人表示:「我們有一套嚴格的安全檢查程序,確保合作伙伴和合作內容都符合EE的要求和標準,而「華為」是值得信賴和尊敬的伙伴」。 其他國家如加拿大和澳洲,則採取保守態度,評估這兩家電信通訊商的可信度和可用性。
挪威政府提案修改著作權法,將處罰把CD音樂複製成MP3檔案之行為為解決日益猖狂的網路侵權行為,挪威政府已提出著作權法修正草案,針對侵害著作權及網路盜版行為處以罰金及三年以下有期徒刑之刑責。其中最主要的就是要遏止破解DVD及CD之科技保護措施以及處罰提供軟硬體進行破解之行為。不過,在修正草案下,為個人使用之目的而複製CD或DVD之行為,即便在此過程中意味有破解科技保護措施之行為存在,仍不構成違法;但是,若破解科技保護措施而將CD歌曲轉換成MP3格式則構成侵權行為。 此一修正案的提出雖獲業界一致喝采,但是亦受到學者的抨擊,認為此修正案內容定義不清,完全無法執行。由於挪威國會預計於今年三、四月審查此案,若能順利過關,最快將於今年七月正式施行,不過未來如何發展,仍存在相當變數,值得追蹤觀察。
Youtube測試影片下載服務,並採創用CC授權模式Youtub宣佈開始測試影片下載服務,未來將朝向提供使用者免費或付費下載Youtube網站上之影片。同時免費提供下載的影片,創作者可選擇五種創用CC(Creative Commons)的授權模式;另一方面,影片所有人可自訂下載影片所應支付的費用,使用者則透過Google 體系的Google Checkout 付費。Youtube在其發表的聲明中指出,因為許多影片創作者希望影片能夠更廣為流傳,因此推出影片下載服務,影片所有人可以選擇影片的創用CC授權模式,使影片下載者在授權範圍內利用所下載的影片內容,促進影片內容的流通。 目前供下載的影片格式為MP4,屬於可普遍流傳播放的格式,可下載的影片在左下角有download連結。在實際應用上,Youtube目前正與Stanford、Duke、UC Berkeley、UCLA等大學透過該站測試免費下載學校報告、研究、演講,使學生或教授在課堂上可以離線使用與教學相關的影片。另外YouTube在My Video工具列中開發”My Purchases”頁面,讓使用者能追蹤他們所下載或想下載的影片。
美國國家標準暨技術研究院規劃建立「人工智慧風險管理框架」,並徵詢公眾對於該框架之意見美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)為管理人工智慧對於個人、組織以及社會所帶來之風險,於2021年7月29日提出將建立「人工智慧風險管理框架」(Artificial Intelligence Risk Management Framework, AI RMF)之規畫並徵詢公眾意見,截止日為9月15日,並預計於10月發布正式報告。 依照NIST說明,公眾所建議之人工智慧風險管理框架,可促進人工智慧之可信賴性,其中包含如何應對並解決人工智慧於設計、發展及使用過程中所遭遇之「精確度」(accuracy)、「可解釋性」(explainability)、「偏見」(bias)等議題。此外,上開管理框架預計為非強制性、供企業自願性使用於人工智慧設計、發展、使用、衡量及評估之人工智慧標準。 依現有公眾意見徵詢結果,其中DeepMind公司建議於人工智慧設計初期,必須預先構思整體系統之假設是否符合真正社會因果關係。舉例言之,當設計一套可預測民眾健保需求程度之系統時,如輸入參數僅考量民眾於醫療上的花費,將使僅有可負擔較高醫療費用之民眾被歸類為健保需求程度較高者,從而導致健保制度排擠經濟負擔程度較差之公民,故在設計系統時,應從預先設定之假設事實反面(counter-factual)思考並驗證是否會產生誤差或公平性之問題(例如預先思考並驗證「醫療費用支出較低之民眾是否即可被正確歸類為健保需求度低之民眾」)。惟進行上述驗證需要大量社會資料,因此DeepMind也建議NIST應建立相關機制,使這些社會資料可以被蒐集、使用。 此外,亦有民眾建議管理框架應有明確之衡量方法以及數值指標,以供工程界遵循。同時鑒於人工智慧發展極為快速,未來可能有不同於以往之人工智慧類型出現,故亦建議NIST應思考如何在「建構一套完整且詳細之人工智慧治理框架」與「保持人工智慧治理框架之彈性與靈活性」之間取得平衡。 最後,目前也有許多徵詢意見指出,許多人工智慧治理之目標會相互衝突。舉例言之,當NIST要求人工智慧系統應符合可解釋性,則人工智慧公司勢必需要經常抽取人工智慧系統中之「數據軌跡」(audit logs),惟數據軌跡可能被認為是使用者之個人資料,因此如何平衡或完善不同治理框架下之目標,為未來應持續關注之議題。