英國上議院科學及科技委員會(The House of Lords, Science and Technology Committee)於2016年9月15日對於自動駕駛車(Autonomous Vehicles)的運作環境與應備法制規範展開公眾諮詢,委員會邀請利害相關的個人和團體提交書面文件來回應此公眾諮詢。書面意見提交的最後期限是2016年10月26日。
英國政府一向對發展自動駕駛車的潛力十分積極,其在2015年建立了一個新的聯合政策單位-聯網與自動駕駛車中心(Centre for Connected and Autonomous Vehicles, CCAV),並在2015年財政預算案中提供CCAV一億英鎊的智慧行動研發基金聚焦於無人駕駛車技術。CCAV還公佈現有與車輛交通相關立法的調查報告,其結論是:「英國現有的法律架構和管制框架並不構成自動駕駛車在公路上測試的阻礙。」此外,CCAV還出版了無人駕駛汽車測試的實務守則。在2016年英國女王的演講中,政府宣布將制訂現代運輸法案(Modern Transport Bill):「確保英國處在最新運輸科技的尖端,包括自動駕駛和電動車。」 2016年7月,CCAV舉辦了英國的聯網與自動駕駛車的測試生態系統的公眾諮詢,以及於2016年9月發佈個人和企業對於在英國使用自動駕駛車技術和先進輔助駕駛系統的公眾意見徵詢。
本次公眾諮詢將調查政府所採取的行動是否合適,是否有兼顧到經濟機會和潛在公共利益。在影響與效益方面,本次諮詢將收集自動駕駛車的市場規模與潛在用途、對用戶的益處與壞處、自動駕駛車對不同產業的潛在衝擊以及公眾對於自動駕駛車的態度等相關證據。在研究與開發的方面,自動駕駛車目前的示範計畫與規模是否足夠、政府是否有挹注足夠的研發資金、政府研發成果的績效以及目前研發環境是否對中小企業有利等面向,找尋傳統道路車輛是否有和自動駕駛車輛並存的過渡轉型方法。最後,布署自動駕駛車是否需要提升軟硬體基礎設施、政府是否有建立資料與網路安全的方法、是否需要進一步的修訂自動駕駛車相關法規、演算法及人工智慧是否有任何道德問題、教育體系是否能提供自動駕駛車相關技能、政府制訂策略的廣度;以及退出歐盟是否對英國研發自動駕駛車產業有不利之影響;而英國政府是否應在短期內做出保護該產業之相關措施,或是待Brexit條款協商完成之後再視情況決定等等。
上述議題在書面意見徵集完成之後,將於2016年11月召開公聽會再度徵集更廣泛的相關意見,科學及科技委員會希望能在2017年初做成調查報告並提交給國會,在得到政府回應之後,可能將進行辯論以決定未來英國自動駕駛車產業的發展方向。
美國聯邦第七巡迴上訴法院於2018年08月16日宣告,美國伊利諾伊州杜佩奇縣內珀維爾市(Naperville)所經營之「獨占性」公用售電業,以裝設智慧電表手段蒐集用電戶即時(Real Time)用電資料,並保存長達三年之行為,並無違反美國憲法第四條修正案以及伊利諾州憲法第一條第六項所宣示之不得以不合理手段對於民眾居住隱私資料進行搜索之限制。 美國聯邦第七巡迴上訴法院闡明,本案爭點有二:第一,內珀維爾市(Naperville)所經營之獨占性公用售電業以裝設智慧電表手段蒐集用電戶即時用電資料,並保存長達三年之行為,是否構成美國憲法第四條修正案以及伊利諾州憲法第一條第六項所謂之「對於民眾居住隱私資料之搜索」?第二,如內珀維爾市(Naperville)所經營之獨占性公用售電業以裝設智慧電表手段蒐集用電戶即時用電資料係構成「對於民眾居住隱私資料之搜索」,則內珀維爾市(Naperville)所經營之獨占性公用售電業是否有更高之公益,可合理化此一對於「對於民眾居住隱私資料之搜索」之行為? 美國聯邦第七巡迴上訴法院認定內珀維爾市電業以智慧電表手段蒐集民眾用電資訊,確實是構成美國憲法第四條修正案以及伊利諾州憲法第一條第六項所謂之「對於民眾居住隱私資料之搜索」。但是由於珀維爾市電業蒐集這些用電資訊,是基於更高之公益目的,因此仍屬以合理手段對於民眾居住隱私資料進行搜索。因此判決本案珀維爾市電業勝訴。 於第一爭點,美國聯邦第七巡迴上訴法院認定智慧電表之紀錄內容包含「電器負載特徵(load signature)」以及「用電戶電力消耗慣性」,對比Kyllo v. United States, 533 U.S. 27, 31-32(2001)乙案下警方以熱感應器方式偵測住宅整體熱能有無之行為,更高度細緻化、具有侵入性,且智慧電表之設置,於現今尚非普及(not in general public use),因此構成對於民眾居住隱私資料之搜索。又內珀維爾市(Naperville)所經營之獨占性公用售電業雖辯稱用電戶於裝設智慧電表時,皆已經同意電業蒐集其個人用電資訊,然美國聯邦第七巡迴上訴法院認定,內珀維爾市(Naperville)所經營之公用售電業具有高度獨占性,故用電戶裝設智慧電表之同意難謂有效,且用電戶同意用電,不代表用電戶即同意分享其用電資訊。 惟於第二爭點,美國聯邦第七巡迴上訴法院認定,由於內珀維爾市(Naperville)所經營之獨占性公用售電業已經聲明不會將此類用電資訊分享予有關政府機關,且本案對於用電戶用電資訊之蒐集,其目的亦與刑事追訴無關,是以應以低密度審查標準看待本案即可,又本案內珀維爾市(Naperville)所經營之獨占性公用售電業裝設智慧電表之目的在於促使電網現代化,並且可使發電業供應更加穩定之電力,並且也可以透過時間電價(Time-Based Pricing)之方式促使用電戶節電,並且減少電網負載,同時也可以使發電業節省查表之人事成本,因此雖然內珀維爾市(Naperville)所經營之公用售電業透過裝設智慧電表之手段蒐集用電戶即時用電資訊係構成對於用電戶之民眾居住隱私資料之搜索,然由於其具有更高之公益性,因此仍可合理化此一對於「對於民眾居住隱私資料之搜索」之行為。 綜上,本案美國聯邦第七巡迴上訴法院判定內珀維爾市(Naperville)所經營之獨占性公用售電業勝訴。
日本修訂《教育資訊安全政策指引》以建構安全的校園ICT環境日本文部科學省於2022年3月發布「教育資訊安全政策指引」(教育情報セキュリティポリシーに関するガイドライン)修訂版本,該指引於2017年10月訂定,主要希望能作為各教育委員會或學校作成或修正資訊安全政策時的參考,本次修訂則是希望能具體、明確化之前的指引內容。本次修訂主要內容如下。 (1)增加校務用裝置安全措施的詳細說明: 充實「以風險為基礎的認證」(リスクベース認証)、「異常活動檢測」(ふるまい検知)、「惡意軟體之措施」(マルウェア対策)、「加密」(暗号化)、「單一登入的有效性」(SSOの有効性)等校務用裝置安全措施內容敘述。 (2)明確敘述如何實施網路隔離與控制存取權的相關措施: 對於校務用裝置實施網路隔離措施,並將網路分成校務系統或學習系統等不同系統,若運用精簡型電腦技術(シンクライアント技術)則可於同一裝置執行網路隔離。另外,針對校務用裝置攜入、攜出管理執行紀錄,並依實務運作調整控制存取權措施,例如安全侵害影響輕微者則可放寬限制以減輕管理者負擔。
澳洲及紐西蘭公路監理機關聯合會發布輔助與自動車輛駕駛之教育與訓練研究報告澳洲及紐西蘭公路監理機關聯合會(Austroads)於2020年3月18日發布「輔助駕駛及自動駕駛車輛之駕駛人教育及訓練報告(Education and Training for Drivers of Assisted and Automated Vehicles)」,該報告目的在於研究有哪些技巧、知識與行為,為目前與未來人們使用具有輔助或自駕功能車輛所需具備的;並檢視註冊與發照之相關機關應擔任何種角色,以確保駕照申請人具有足夠能力以使用相關科技。報告中所關注之輔助與自駕車輛,為具有SAE自動駕駛層級第0至第3級之輕型或重型自駕車輛;目前澳洲道路規範並未禁止第3級之自駕車使用,但駕駛人仍應保持對車輛之控制且不得同時進行其他行為。 報告認為目前之駕駛執照發照架構尚不需改變,但註冊與發照機構仍可於輔助與自動駕駛車輛的學習與評估中扮演一些角色,包含: 鼓勵經銷商、製造商與相關利益團體進行有關如何安全運用相關系統,同時避免過度依賴之教育與訓練。 支持將自駕車技術相關之特定重要資訊整合進所有層級之教育與訓練中,但不使用強制性之評估程序進行能力評估。 應關注如何於澳洲設計規範(Australian Design Rules, ADRs)或澳洲新車評估計畫(Australasian New Car Assessment Program, ANCAP)中規範特定車輛之安全公眾教育、整合重要資訊於既有的知識與技術訓練,以及建立強制之學習計畫。 未來澳洲及紐西蘭公路監理機關聯合會將繼續發展相關計畫以實施本報告中之相關建議,以使教育訓練系統更加完善。
美國國家標準暨技術研究院發布「人工智慧風險管理框架:生成式AI概況」美國國家標準暨技術研究院(National Institute of Standard and Technology, NIST)2024年7月26日發布「人工智慧風險管理框架:生成式AI概況」(Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile),補充2023年1月發布的AI風險管理框架,協助組織識別生成式AI(Generative AI, GAI)可能引發的風險,並提出風險管理行動。GAI特有或加劇的12項主要風險包括: 1.化學、生物、放射性物質或核武器(chemical, biological, radiological and nuclear materials and agents, CBRN)之資訊或能力:GAI可能使惡意行為者更容易取得CBRN相關資訊、知識、材料或技術,以設計、開發、生產、使用CBRN。 2.虛假內容:GAI在回應輸入內容時,常自信地呈現錯誤或虛假內容,包括在同一情境下產出自相矛盾的內容。 3.危險、暴力或仇恨內容:GAI比其他技術能更輕易產生大規模煽動性、激進或威脅性內容,或美化暴力內容。 4.資料隱私:GAI訓練時需要大量資料,包括個人資料,可能產生透明度、個人資料自主權、資料違法目的外利用等風險。 5.環境影響:訓練、維護和運行GAI系統需使用大量能源而影響碳排放。 6.偏見或同質化(homogenization):GAI可能加劇對個人、群體或社會的偏見或刻板印象,例如要求生成醫生、律師或CEO圖像時,產出女性、少數族群或身障人士的比例較低。 7.人機互動:可能涉及系統與人類互動不良的風險,包括過度依賴GAI系統,或誤認GAI內容品質比其他來源內容品質更佳。 8.資訊完整性:GAI可能無意間擴大傳播虛假、不準確或誤導性內容,從而破壞資訊完整性,降低公眾對真實或有效資訊的信任。 9.資訊安全:可能降低攻擊門檻、更輕易實現自動化攻擊,或幫助發現新的資安風險,擴大可攻擊範圍。 10.智慧財產權:若GAI訓練資料中含有受著作權保護的資料,可能導致侵權,或在未經授權的情況下使用或假冒個人身分、肖像或聲音。 11.淫穢、貶低或虐待性內容:可能導致非法或非自願性的成人私密影像或兒童性虐待素材增加,進而造成隱私、心理、情感,甚至身體上傷害。 12.價值鏈和組件整合(component integration):購買資料集、訓練模型和軟體庫等第三方零組件時,若零組件未從適當途徑取得或未經妥善審查,可能導致下游使用者資訊不透明或難以問責。 為解決前述12項風險,本報告亦從「治理、映射、量測、管理」四大面向提出約200項行動建議,期能有助組織緩解並降低GAI的潛在危害。