歐盟在歐盟執委會的支持之下,致力於網實整合的發展,2015年6月歐盟提出以五項關鍵領域作為發展方向,包含交通、能源、健康、生產、以及基礎設施等。其中在智慧製造部分,主要為從大量生產到彈性、個別客製化生產,以及在生產以及產線自動化之下,增加市場競爭力。但針對此等發展,歐盟也提出未來將面臨幾點挑戰:
1.科學:網實整合系統應特別考量社會技術層面、使不同學科整合、結合相關系統理論,以及建構複式領域模型等
2.技術:由於不同的技術方法,因此應建立互通性平台系統、使自動化設計與執行更加成熟、減少資料隱私問題、整合安全性、建立系統方式處理無法確定之資訊等。
3.經濟:透過網實整合,從產品到服務,可建立新的商業模式。
4.教育:網實整合之應用需具備充分的條件,因此,可透過教育及訓練體制來增加對相關應用的認識。
5.法律:減少網實整合系統建立產生的障礙,消除法規解釋不清楚之部分,並且改善以確認整合系統應用正確性。
6.社會:網實整合應用對公共、產業以及政治等層面產生之改變與風險管理。
網實整合在生產力4.0的發展當中,屬於最為核心之部分,目前歐盟所舉出可能產生的面向與問題,值得作為未來政策法制方向之參考。
本文為「經濟部產業技術司科技專案成果」
有鑒於智慧聯網IoT環境下,許多智慧型手持裝置及行動通訊裝置,大量蒐集消費者資訊之隱私權暨資訊安全考量,美國國會於2013年5月10日提出「應用軟體隱私暨資訊安全保護法草案」(Application Privacy, Protection, and Security Act of 2013, APPS Act of 2013, H.R. 1913)進行審議。「應用軟體隱私暨資訊安全保護法草案」草案針對應用軟體(Application)在蒐集消費者資訊前,如何落實「同意」機制,乃強制行動通訊裝置應用軟體開發商(developer)應:(1)提供使用者個人資料蒐集、使用、儲存及公開之通知(notice),而該通知含括所蒐集個人資料之種類、使用目的、有償公開第三者之類別及資料儲存等;(2)取得使用者之同意(consent);消費者依據該草案亦有權撤銷其「同意」(withdrawal of consent)。此外,草案乃強制要求該行動通訊裝置應用軟體開發商,就非法近取之個人資料及經去識別化應用軟體蒐集之個人資料,應採取合理及適當之防衛措施(security measures on personal data and de-identified data)。 並且,針對網路環境下隱私權保護議題,更早之前,美國國會於2013年2月28日提出「線上禁止追蹤法草案」(Do-Not-Track Online Act of 2013) 進行審議。「線上禁止追蹤法草案」草案乃要求聯邦貿易委員會(FTC),就透過個人線上活動追蹤,以蒐集、使用個人資料之行為態樣,進行管制。該管制模式謹據以要求如下:(1)被搜集資料個人應收到簡單、明確、並載明資料使用目的之通知(clear, conspicuous and accurate notice and use of such information),而個人就該通知應予明白之同意(affirmative consent);(2)FTC未來在訂定標準規範時,應(shall)考量所被搜集之資料,是否在匿(隱)名基礎上處理之,遂該資料無法有效被聯結(指認)到特定個人或裝置上;此外,消費者當享有資料不被蒐集的權利(expressed preference by individual not to have personal information collected)。該草案並就違反之個人,設定最高15,000,000美元損害賠償規定。
網路搜尋引擎龍頭Google 控告Microsoft剽竊搜尋結果網路搜尋引擎龍頭Google質疑Microsoft研發的“Bing”搜尋引擎有剽竊Google搜尋結果的狀況,對此Google已提出訴訟。Google表示,為了要調查是否有搜尋結果被剽竊的情形,故意在搜尋引擎中創造近100個毫無意義的搜尋關鍵字,例如“Hiybbprqag”、“Mbzrxpgiys”和“Indoswiftjobinproduction”等,同時對應該關鍵字插入虛假的搜尋結果。在幾個禮拜之後,Google發現競爭對手Microsoft 的Bing搜尋引擎也出現相同的搜尋結果,因此認為Bing有剽竊之疑。Google表示:「Google的搜尋結果是經過多年辛苦努力的成果,這件事情對我們來說像是一場馬拉松賽跑中有人在背後偷襲你,然後突然跳到終點站前迎接勝利,是一種欺騙的行為。」 Microsoft否認剽竊搜尋結果,認為這是Microsoft用來提高搜尋品質結果的方法之一,Bing實際上使用不同的符號和方法來對於不同的搜尋結果加以分級,用來辨別不同的搜尋結果。同時針對搜尋結果提供多數關連的答案,藉此增加消費者對於Bing搜尋引擎的良好經驗,Google使用間諜手法(Spy-novelesque stunt)對競爭對手進行調查,此舉已抹黑Bing,蒙上不好的評價。 Google提出抗辯認為Bing的行為構成簡單而顯然的詐欺,造成不同的搜尋引擎產生同樣的搜尋結果。況且搜尋引擎的功能,若可以出現與Google搜尋下相同的結果,並無法保證能創造出更好的搜尋品質,Microsoft的說法無法獲得肯認,後續延燒的訴訟爭議,有待日後進一步觀察。
智慧聯網趨勢下的城鎮再進化-日本 ICT 社區總體營造 金融穩定委員會報告指出金融領域採用AI之模型、資料品質與治理風險.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 金融穩定委員會(Financial Stability Board, FSB)於2024年11月14日發布《人工智慧對金融穩定的影響》報告,探討人工智慧(Artificial Intelligence, AI)在金融領域的應用進展及對全球金融穩定的影響,分析相關風險並提出建議。 報告指出AI具有提升效率、加強法規遵循、提供個人化金融產品及進階資料分析等益處,但同時可能加劇某些金融部門的脆弱性(Vulnerability),進而構成金融穩定風險。報告特別提出之脆弱性包括:「第三方依賴及服務供應商集中化」、「市場相關性」、「資安風險」,以及「模型風險、資料品質和治理」。 在模型風險、資料品質與治理中,廣泛應用AI可能導致模型風險上升,因某些模型難以驗證、監控及修正,且模型的複雜性與透明性不足將增加尋找具獨立性和專業知識的驗證者的挑戰。此外,在大型語言模型(Large Language Model, LLM),大規模非結構化資料的使用及訓練資料來源的不透明性,使資料品質評估更加困難。特別是在預訓練模型(Pre-trained Model)中,金融機構對眾多資料來源的評估方式不熟悉,進一步增加管理難度。 若金融機構未建立健全的治理架構以審查AI的使用及其資料來源,模型風險與資料品質問題將難以控制。金融機構有責任應對與AI相關的模型風險和資料品質挑戰,包含對模型進行驗證、持續監控、執行結果分析和評估資料品質的預期要求。 報告呼籲各國金融主管機關加強對AI發展的監測,評估現行金融政策框架是否充分,並增強監管能力。建議可定期或不定期調查AI應用情形,並透過報告及公開揭露制度獲取相關資訊。此外,主管機關可考慮利用監督科技(SupTech)及監管科技(RegTech)等AI驅動工具強化監管效能,以應對AI在金融領域帶來的挑戰與風險。