日本總務省下設之實現車聯網社會研究會(Connected Car 社会の実現に向けた研究会,下稱車聯網研究會),於2017年4月19日第4次會議中提出當前日本車聯網面對之相關課題及策略目標。至目前為止日本智慧型運輸系統(Intelligent Transportation System)各自已發展出道路交通資訊通信系統(Vehicle Information and Communication System,簡稱VICS)、電子收費系統(Electronic Toll Collection System,簡稱ETC)、雷達防追撞(レーダー)等不同通訊技術,自動駕駛則發展至初期階段。日本當前發展中面臨其企業國際競爭力確保與強化、持續友善環境之可能性、高齡化及勞動生產力人口減少等問題。希望透過國家開發之系統及國際服務方式,利用交通資訊通信系統實現最佳的交通狀態,在人口稀少之地區利用無人駕駛系統,使駕駛不足之問題得以解決,對當地之購物及交通上可以加以協助。車聯網研究會設定之4大目標為:
透過利用車與車間通信等技術,降低事故之發生,普及車聯網等資通訊系統,車中行動模式之變革,並透過異業結合創造新的服務模式,達成安全、安心、便利之智慧聯網生活4大目標。
本文為「經濟部產業技術司科技專案成果」
德國聯邦最高法院(Bundesgerichtshof, BGH)於今(2020)年7月「VI ZR 405/18」」案中拒絕當事人請求Google刪除有關其健康個資之主張,為2018年歐盟通過一般資料保護規則(General Data Protection Regulation, GDPR)後,德國聯邦最高法院第一件與被遺忘權相關之判決。本案當事人曾為德國一慈善團體之負責人,該團體於2011年陷入財務危機,而當時有報導指稱當事人作為團體負責人,竟稱病不回應媒體訪談。當事人認為上述報導資料有損其名譽,請求Google刪除與其健康個資相關之搜尋結果。德國聯邦最高法院於判決中強調,網路搜尋結果是否須被移除,應衡量相關之基本權利,個案分別認定。本案中大眾知的權利(right to information)優於當事人被遺忘權,故駁回原告之請求,判決Google勝訴。 被遺忘權首見於2014年歐盟判決(Google Spain v. AEPD and Mario Costeja Conzalez),賦予人民要求搜尋引擎移除對自身造成負面影響資訊之權利。GDPR進一步於第17條明文化此一權利之內涵,於個資依原本蒐集之目的已不具必要性、當事人撤回同意、當事人反對個資自動化處理、當事人個資遭不法侵害、依照法律規定應刪除個資及青少年與兒童個資等六種情形,當事人得請求資料控制者刪除個資。 法國近期亦有被遺忘權相關法院判決。法國最高行政法院(Conseil d’État)於今(2020)年3月撤銷法國國家資訊自由委員會(Commission nationale de l’informatique et des libertés, CNIL)於2016年3月對Google作出十萬歐元之裁罰,因其僅刪除存在於法國網域內之當事人個資,而未及於全球網域。法國最高行政法院於本判決重申2019年歐盟法院(European Court of Justice)於Google v. CNIL之立場,認定Google履行被遺忘權之網域範圍僅適用於歐盟地區,而不及於全球,撤銷CNIL於2016年對Google作出之裁罰。
德國聯邦內政部提出2025年數位政策計畫,加強推動國家行政數位化德國聯邦內政部(Bundesministerium des Innern und für Heimat, BMI)於2022年4月28日公布「數位德國-主權、安全性,及以公民為中心」(Digitales Deutschland – Souverän. Sicher. Bürgerzentriert.)政策文件。BMI作為確保網路與資訊安全,與政府機關數位轉型之聯邦主管機關,在「以公民和企業為數位行政之主要服務對象,並加強國家行政效率」之前提下,規劃2025年前預計達成之目標與具體措施,分述如下: (1)以公民與企業為中心的國家服務數位化:政府應以使用者導向(Nutzerorientierung)作為行政數位化的指導原則,推動簡易、具透明度,且可隨時隨地使用之數位行政服務,包含制定如何提供良好數位化行政服務之指引、調修《網路近用法》(Onlinezugangsgesetz)等。 (2)國家現代化:未來聯邦法律應於立法程序中,確認數位化之可行性,並刪除其中有關書面形式之要求。另應加強聯邦政府內部之系統整合、促進行政工作數位化,並透過訓練計畫讓員工適應數位化環境。 (3)資訊安全架構的現代化:調整德國聯邦資訊安全局(Bundesamt für Sicherheit in der Informationstechnik, BSI)職權,強化BSI與資訊技術安全中央辦公室(Zentrale Stelle für Informationstechnik im Sicherheitsbereich, ZITiS)等資安主管機關之數位能力與技能。 (4)資料合法開放與使用:加強行政機關之資料能力與相關分析技能,並以歐盟「資料法案」(Data Act)為法律基礎,為資料品質與資料使用建立標準。 (5)強化數位主權(Digitalen Souveränität)與互通性:為確保國家在數位領域的長期能量,必須加強個人與公部門的數位能力,使其能在數位世界中獨立、自主與安全地發揮作用。與此同時,BMI亦與各邦及聯邦資訊技術合作組織(Föderale IT-Kooperation, FITKO)合作,建立可信賴之標準與介面,並借助開源軟體(Open-Source)、開放介面與開放標準,降低對個別技術供應商之依賴。
金融穩定委員會報告指出金融領域採用AI之模型、資料品質與治理風險.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 金融穩定委員會(Financial Stability Board, FSB)於2024年11月14日發布《人工智慧對金融穩定的影響》報告,探討人工智慧(Artificial Intelligence, AI)在金融領域的應用進展及對全球金融穩定的影響,分析相關風險並提出建議。 報告指出AI具有提升效率、加強法規遵循、提供個人化金融產品及進階資料分析等益處,但同時可能加劇某些金融部門的脆弱性(Vulnerability),進而構成金融穩定風險。報告特別提出之脆弱性包括:「第三方依賴及服務供應商集中化」、「市場相關性」、「資安風險」,以及「模型風險、資料品質和治理」。 在模型風險、資料品質與治理中,廣泛應用AI可能導致模型風險上升,因某些模型難以驗證、監控及修正,且模型的複雜性與透明性不足將增加尋找具獨立性和專業知識的驗證者的挑戰。此外,在大型語言模型(Large Language Model, LLM),大規模非結構化資料的使用及訓練資料來源的不透明性,使資料品質評估更加困難。特別是在預訓練模型(Pre-trained Model)中,金融機構對眾多資料來源的評估方式不熟悉,進一步增加管理難度。 若金融機構未建立健全的治理架構以審查AI的使用及其資料來源,模型風險與資料品質問題將難以控制。金融機構有責任應對與AI相關的模型風險和資料品質挑戰,包含對模型進行驗證、持續監控、執行結果分析和評估資料品質的預期要求。 報告呼籲各國金融主管機關加強對AI發展的監測,評估現行金融政策框架是否充分,並增強監管能力。建議可定期或不定期調查AI應用情形,並透過報告及公開揭露制度獲取相關資訊。此外,主管機關可考慮利用監督科技(SupTech)及監管科技(RegTech)等AI驅動工具強化監管效能,以應對AI在金融領域帶來的挑戰與風險。
歐盟網路接取與互連之規範現況與發展