歐盟執委會主席Barroso在今年年初設立了負責「正義、基本權與公民」(Justice Fundamental Right and Citizenship)事務的新任務單位。而負責此單位的執委會委員Reding自年初以來已多次宣示對個人資料保護以及隱私權的重視。在今年三月份的演講中,Reding更宣布將在年底前提出修正歐盟個人資料保護指令的內容。惟此承諾在歐盟會員國的壓力下恐怕無法踐履了。歐盟執委會於日前已表示將提出一份新的行動宣示來取代原先的修法計畫。
歐盟目前的個人資料保護指令乃在1995年制定,迄今已有15年之久,雖然其許多原則在今日仍然適用,但面對新科技、新應用,如社交網站、雲端應用等的發展,該指令仍不免顯出不足之處。此外,在原先的架構下,執委會也無法介入所謂歐盟「第三支柱」下的事務(亦即與犯罪相關的警政、司法合作事務),但此狀況在里斯本條約通過後理應有所改變。以上兩點也正是Reding提議修正個人資料保護指令的理由。但由於部分歐盟會員國政府認為Reding所提有窒礙難行之處,例如法國即直言Reding的修法時程不切實際,執委會及Reding也因此放棄原先規劃。至於新的行動宣示到底會不會真的納入歐盟個人資料保護指令的修正計畫,其時程與內容如何,值得持續注意。
2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。
歐盟資通安全局發布《物聯網安全準則-安全的物聯網供應鏈》歐盟資通安全局(European Union Agency for Cybersecurity, ENISA)於2020年11月發布《物聯網安全準則-安全的物聯網供應鏈》(Guidelines for Securing the IoT – Secure Supply Chain for IoT),旨在解決IoT供應鏈安全性的相關資安挑戰,幫助IoT設備供應鏈中的所有利害關係人,在構建或評估IoT技術時作出更好的安全決策。 本文件分析IoT供應鏈各個不同階段的重要資安議題,包括概念構想階段、開發階段、生產製造階段、使用階段及退場階段等。概念構想階段對於建立基本安全基礎非常重要,應兼顧實體安全和網路安全。開發階段包含軟體和硬體,生產階段涉及複雜的上下游供應鏈,此二階段因參與者眾多,觸及的資安議題也相當複雜。例如駭客藉由植入惡意程式,進行違背系統預設用途的其他行為;或是因為舊版本的系統無法隨技術的推展進行更新,而產生系統漏洞。於使用階段,開發人員應與使用者緊密合作,持續監督IoT設備使用安全。退場階段則需要安全地處理IoT設備所蒐集的資料,以及考慮電子設備回收可能造成大量汙染的問題。 總體而言,解決IoT資安問題,需要各個利害關係人彼此建立信賴關係,並進一步培養網路安全相關專業知識。在產品設計上則須遵守現有共通的安全性原則,並對產品設計保持透明性,以符合資安要求。
自動駕駛車輛之分級與責任所謂自動駕駛(autopilot),原來是指一個用來控制載具軌道而無需人工一直干預的系統,亦即無須人類持續干預,但人類仍須於關鍵時刻介入進行決定或作為,此時機器僅作為輔助。 而自動駕駛汽車或稱全自動駕駛,則只完全無須人類干預,由機器自動感應偵測,自動做成決策控制車輛行駛。故由人類的介入程度區別究竟是駕駛輔助或自動駕駛。美國國家公路交通安全管理局(NHTSA)於2016年已提出正式的分類系統,除手動駕駛(0級)外,區分弱駕駛輔助(1級)、部分自動駕駛(2級)、有條件全自動(3級)、高度/完全自動化(4級)不同程度的自動駕駛。其他國家如德國,在聯邦政府的「自動駕駛圓桌會議」也對自動駕駛有類似的四等級區分。 德國聯邦政府也在於2017年1月25日提出規範自動駕駛之法律草案,亦即道路交通法修正法(Änderung des Straßenverkehrsgesetzes),核心在於賦予電腦與人類駕駛者法律上同等地位。亦即,駕駛人的定義未來擴張延伸到「使用不同程度自動駕駛系統者」。根據草案將來在車輛行駛中,人類可以在特定時間與特定狀況下接管整個行駛。而最重要的修正:人類始終應該負使用電腦的最終責任。 故在行駛中駕駛人將會被輔助機器替代,更要求自駕系統應該具備“隨時可以由駕駛人接手操控或停俥”的功能。 分類中,駕駛人的角色只有到全自動駕駛實現時才退場,屆時才會發生無駕駛人只有乘客的狀況。 修法也重視自駕技術失敗並導致事故所生責任分擔的問題。對於責任的調查將採用如同飛航安全中之「黑盒子」的方式,該裝置會記錄行駛中的所有基本資料。這將有助於發生事故後澄清,查明究竟是技術上原因、製造商或駕駛員的過失,以確保駕駛人無法將責任全部推給自動化系統的故障。
Mcdonald’s 品牌資產保衛策略麥當勞公司已申請McDonald’s 與Logo- M用於咖啡,更於九月份將其所販售的研磨咖啡與咖啡豆,以 “Mc Café” 申請商標註冊,意味著未來這間全球最大的漢堡連鎖店,將於店內甚或超市販售『麥當勞咖啡』。『如同大部份的企業,我們註冊許多商標用以保護我們的品牌資產!』麥當勞發言人 Danya Proud表示這並非奇聞。 近幾年,麥當勞成功的因素在於擴展它們的飲料事業,引進優質咖啡與水果冰沙,而選擇在全球速食連鎖店成長緩慢的時候,進入袋裝咖啡市場,亦是個創新手法。 星巴克的商標申請亦侵略性的跳脫普遍存在的咖啡廳而進入零售市場,一九九八年即開始自行經營袋裝咖啡事業,今年七月販售於超市、藥妝店、量販店的咖啡市占率更由25.6 %提升至28.2 %。 其實,麥當勞早在五年前即以 “Mc Café”,擴張咖啡與特色飲料事業,而此些利潤遠高於原本的速食餐點,且間接促使許多顧客駐足停留店內,也許是眼看Dunkin` Donuts於超市與自家甜甜圈店強力販售袋裝咖啡,讓麥當勞思考複製此模式。然而此舉也可能僅止為預防手段,如果麥當勞無意進入袋裝咖啡市場,“Mc Café ”商標也可以防止競爭者以『麥當勞品牌』販售咖啡。