日本獨立行政法人情報處理推進機構(IPA/SEC)於2016年3月公佈「聯繫世界之開發指引」,並於2017年5月8日推出「IoT高信賴化機能編」指導手冊,具體描述上開指引中有關技術面之部份,並羅列開發IoT機器、系統時所需之安全元件與機能。該手冊分為兩大部份,第一部份為開發安全的IoT機器和關聯系統所應具備之安全元件與機能,除定義何謂「IoT高信賴化機能」外,亦從維修、運用角度出發,整理開發者在設計階段須考慮之系統元件,並依照開始、預防、檢查、回復、結束等五大項目進行分類。第二部份則列出五個在IoT領域進行系統連接之案例,如車輛和住宅IoT系統的連接、住家內IoT機器之連接、產業用機器人與電力管理系統之連接等,並介紹案例中可能產生的風險,以及對應該風險之機能。IPA/SEC希望上開指引能夠作為日後國際間制定IoT國際標準的參考資料。
本文為「經濟部產業技術司科技專案成果」
2016年8月底,歐洲電子通傳監管機構(Body of European Regulators for Electronic Communications, BEREC)根據歐洲議會(European Parliament)與歐盟理事會(Council of the European Union)通過的第2015/2120號規章(下稱2120號規章)第5條第3項的規定,推出規範歐盟各會員國國家監管機構(national regulatory authorities, NRAs)落實網路中立性原則的指南,為歐洲近年積極鼓吹數位人權運動寫下勝利的一頁。 該指南主要針對2120號規章以下幾條進行細部說明: 1. 第一條:規範主體與範圍; 2. 第二條:定義; 3. 第三條:網路中立權利的保障; 4. 第四條:確保網路中立的資訊透明措施; 5. 第五條:監管機制; 6. 第六條:罰則; 7. 第十條:規章實施與過渡條款。 指南補充說明了原先規章中,各條條文的相關細部規範。BEREC不只對各條規範中較為模糊的敘述提供明析的論述,同時也強化NRAs規範網路服務供應商(internet service provider, ISP)應提供網路中立服務的拘束力。 該指南的立場旨在希望歐洲網路終端用戶近用網路的權利受到更為完善的保障,且為了達成這樣的目標而為ISPs所提供的服務設下了更為嚴苛的門檻。不過BEREC也表示,ISPs可以在不影響其他終端用戶的權利及傳輸速率下,為特定服務提供特別的服務方案,例如:即時醫療服務(real-time health services)。當然,針對這些特定服務,各國NRAs必須加以監管以確保其他網路終端用戶的權利。 雖然該指南對歐盟各會員國的NRAs有行政指導上的指標意義,不過有趣的是,英國通訊傳播管理局(Office of Communications, Ofcom)身為BEREC的會員,但英國已非歐盟會員,Ofcom是否會提出適用英國自己的網路中立性規範,以及歐盟各會員國對於該指南的適用狀況值得繼續追蹤。
亞馬遜啟動「零計劃」與「透明度計劃」打擊盜版於平台上販賣盜版商品,長期困擾著許多電子商務平台。做為美國電子商務龍頭之一的亞馬遜,近年也遭受外界指責未盡防止盜版的責任。儘管亞馬遜聲稱已盡力處理廠商的盜版申訴,但外界對於亞馬遜怠於處理甚至靠盜版牟利的譴責,卻未見停歇。 為解決盜版猖獗的問題,亞馬遜於2019年年初推出了以「零計劃」(Project Zero)為名的免費品牌服務,這項計畫包含了幾個項目,其一是透過機器學習掃描平台中可能的仿冒商品,並依據廠商提供的品牌資料主動移除可疑的盜版項目;其二,提供廠商自行移除仿冒商品的工具,廠商無須向亞馬遜提出申訴即可自行下架盜版商品;第三,透過廠商在商品上放置特殊編碼,讓亞馬遜可以在出貨時就檢驗其是否為正版,以即時遏止盜版商品的送到消費者手中。「零計劃」目前僅提供部分受邀品牌參與,同時,即使亞馬遜宣稱會採取適當檢驗程序,但該計劃是否會賦予大品牌過多權力,壓迫小廠商或二手商品的發展,導致不公平競爭的問題,仍有待觀察。 除「零計劃」之外,今年(2019)年初 亞馬遜也擴大了自2017年開始運作的「透明度」(Transparency)的付費計劃。該計劃的運作,是由亞馬遜給予註冊品牌廠商一個或數個由亞馬遜研發的二維條碼,廠商有責任將其施用在其指定的商品上,以一方面讓亞馬遜在出貨該商品時透過該條碼來驗證商品來源與真實性 ,二方面買家也可透過亞馬遜提供的APP掃描條碼來確認其商品是否為正品(此為零計劃中所未包含的功能)。目前該計劃已在北美、德國、法國、英國、義大利、西班牙與印度等國實施。
金融穩定委員會報告指出金融領域採用AI之模型、資料品質與治理風險.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 金融穩定委員會(Financial Stability Board, FSB)於2024年11月14日發布《人工智慧對金融穩定的影響》報告,探討人工智慧(Artificial Intelligence, AI)在金融領域的應用進展及對全球金融穩定的影響,分析相關風險並提出建議。 報告指出AI具有提升效率、加強法規遵循、提供個人化金融產品及進階資料分析等益處,但同時可能加劇某些金融部門的脆弱性(Vulnerability),進而構成金融穩定風險。報告特別提出之脆弱性包括:「第三方依賴及服務供應商集中化」、「市場相關性」、「資安風險」,以及「模型風險、資料品質和治理」。 在模型風險、資料品質與治理中,廣泛應用AI可能導致模型風險上升,因某些模型難以驗證、監控及修正,且模型的複雜性與透明性不足將增加尋找具獨立性和專業知識的驗證者的挑戰。此外,在大型語言模型(Large Language Model, LLM),大規模非結構化資料的使用及訓練資料來源的不透明性,使資料品質評估更加困難。特別是在預訓練模型(Pre-trained Model)中,金融機構對眾多資料來源的評估方式不熟悉,進一步增加管理難度。 若金融機構未建立健全的治理架構以審查AI的使用及其資料來源,模型風險與資料品質問題將難以控制。金融機構有責任應對與AI相關的模型風險和資料品質挑戰,包含對模型進行驗證、持續監控、執行結果分析和評估資料品質的預期要求。 報告呼籲各國金融主管機關加強對AI發展的監測,評估現行金融政策框架是否充分,並增強監管能力。建議可定期或不定期調查AI應用情形,並透過報告及公開揭露制度獲取相關資訊。此外,主管機關可考慮利用監督科技(SupTech)及監管科技(RegTech)等AI驅動工具強化監管效能,以應對AI在金融領域帶來的挑戰與風險。
美國法院將考慮命Google提交相關資料美國布希政府為捍衛1998兒童線上保護法(1998 Child Online Protection Act),要求法院命Google提交有關民眾使用該公司之搜尋引擎所輸入之關鍵字資料,以證明透過搜尋引擎,兒童使用電腦連結到色情網站並非不易。但是,Google主張此將會危及其使用者個人的隱私以及其營業秘密。 一名負責審理此案的法官於日前表示,其將會考量政府蒐集此等資料的需求以及Google之使用者的隱私保護議題,且其可能會允許司法部 (Justice Department) 可以接近使用 (access) 一部分由Google所建立的網站連結目錄,但並不是Google使用者所輸入的關鍵字資料。