根據Ponemon Institute的調查,2011年至2012年中,英國企業資料侵害事故平均成本增加了15%。賽門鐵克指出,若企業備有正式的事故應變計畫,每件資料侵害事故的平均成本會降低至13英磅左右。除此之外,雇用外部顧問來協助應變,每件資料侵害事故的平均成本也會節省4英磅。
依據新的資料保護法律架構,歐盟委員會日前已開始擬訂新的資料侵害事故通知制度。同時,根據不同委員會的需求,未來將針對特定產業,制定新的網路與資訊安全管理規範。。
專家評估未來責任保險將成為確保資訊安全的新潮流。企業藉由事先擬定事故應變計劃來降低資料侵害的風險,同時也進行風險轉移的處置措施。各項事故應變計劃之中,保險制度是企業目前較感興趣的措施之一。保險制度除了可用於風險轉移之外,企業還可以從中取得資料侵害事故的專家網絡。這些專家包含事故鑑定專家、公共關係專家、風險管理專家,信用監測提供者或是資料侵害事故的事務處理公司,例如:協助發送事故通知的公司。保險業建置的專家網絡,未來將可以幫助要保人,以最快最省成本的方式處理相關事故。
世界經濟論壇(World Economic Forum, WEF)於2022年6月29日發布《人工智慧公平性和包容性藍圖》白皮書(A Blueprint for Equity and Inclusion in Artificial Intelligence),說明在AI開發生命週期和治理生態系統中,應該如何改善公平性和強化包容性。根據全球未來人類AI理事會(Global Future Council on Artificial Intelligence for Humanity)指出,目前AI生命週期應分為兩個部分,一是管理AI使用,二是設計、開發、部署AI以滿足利益相關者需求。 包容性AI不僅是考量技術發展中之公平性與包容性,而是需整體考量並建立包容的AI生態系統,包括(1)包容性AI基礎設施(例如運算能力、資料儲存、網路),鼓勵更多技術或非技術的人員有能力參與到AI相關工作中;(2)建立AI素養、教育及意識,例如從小開始開啟AI相關課程,讓孩子從小即可以從父母的工作、家庭、學校,甚至玩具中學習AI系統對資料和隱私的影響並進行思考,盡可能讓使其互動的人都了解AI之基礎知識,並能夠認識其可能帶來的風險與機會;(3)公平的工作環境,未來各行各業需要越來越多多元化人才,企業需拓寬與AI相關之職位,例如讓非傳統背景人員接受交叉培訓、公私協力建立夥伴關係、提高員工職場歸屬感。 在設計包容性方面,必須考慮不同利益相關者之需求,並從設計者、開發者、監督機關等不同角度觀察。本報告將包容性AI開發及治理整個生命週期分為6個不同階段,期望在生命週期中的每個階段皆考量公平性與包容性: 1.了解問題並確定AI解決方案:釐清為何需要部署AI,並設定希望改善的目標變量(target variable),並透過制定包容性社會參與框架或行為準則,盡可能實現包容性社會參與(特別是代表性不足或受保護的族群)。 2.包容性模型設計:設計時需考慮社會和受影響的利益相關者,並多方考量各種設計決策及運用在不同情況時之公平性、健全性、全面性、可解釋性、準確性及透明度等。 3.包容性資料蒐集:透過設計健全的治理及隱私,確定更具包容性的資料蒐集路徑,以確保所建立之模型能適用到整體社會。 4.公平和包容的模型開發及測試:除多元化開發團隊及資料代表性,組織也應引進不同利益相關者進行迭代開發與測試,並招募測試組進行測試與部署,以確保測試人群能夠代表整體人類。且模型可能隨著時間發展而有變化,需以多元化指標評估與調整。 5.公平地部署受信任的AI系統,並監控社會影響:部署AI系統後仍應持續監控,並持續評估可能出現新的利益相關者或使用者,以降低因環境變化而可能產生的危害。 6.不斷循環發展的生命週期:不應以傳統重複循環過程看待AI生命週期,而是以流動、展開及演變的態度,隨時評估及調整,以因應新的挑戰及需求,透過定期紀錄及審查,隨時重塑包容性AI生態系統。 綜上,本報告以包容性AI生態系統及生命週期概念,期望透過基礎設施、教育與培訓、公平的工作環境等,以因應未來無所不在的AI社會與生活,建立公司、政府、教育機構可以遵循的方向。
受傷的機車騎士就機器自動駕駛的車輛控訴過失駕駛美國通用汽車公司(General Motors,下稱通用汽車)於2018年01月間向美國運輸部(United States Department of Transportation)遞出請求展示雪弗蘭(Chevrolet)第4代自動駕駛車(此款車種無裝備方向盤與踏板,號稱世界上第一輛可以自我安全駕駛,且無需人類介入駕駛的車輛)的申請,不久後關於以下車禍事件的訴訟即遭提起。 根據Oscar Willhelm Nilsson(即原告,下稱Nilsson)於2018年01月22日向美國舊金山區地方法院針對前開車禍事件提起訴訟的主張,於2017年12月07日早上,其在加州舊金山Oak Street的中央車道上騎乘機車往東行駛,Manuel DeJesus Salazar(即被告,下稱Salazar)於同時地駕駛由通用汽車製造之Chevrolet Bolt vehicle(下稱自駕車),並開啟自動駕駛模式且雙手放開方向盤。Nilsson原騎乘於自駕車後方,不久,自駕車自Nilsson正前方變換車道至左側,Nilsson則繼續筆直前行,但自駕車又隨即往回駛入Nilsson直行騎乘的車道,因此撞擊Nilsson摔倒在地。據此,Nilsson主張通用汽車公司欠缺對於自駕車的自我操作應符合交通法規及規定所賦之注意義務,換言之,自駕車前揭操作車輛駕駛的行為(未注意其他正在行駛的駕駛人而轉換至比鄰車道)具有過失,造成Nilsson受到嚴重的生理及心理損害,且無法工作,產生高額的醫療、護理費用,故請求法院判決原告即Nilsson之主張不少於7萬5千美元之損害賠償、懲罰性損害賠償、律師委任費用以及其他適當且公正之侵權損害賠償等有理由。 然而,根據先前加州車輛管理局所提之文件,通用汽車對Nilsson所描述之車禍經過提出了以下爭執,通用汽車表示自駕車側面有一條長磨損痕跡,應是當時右邊的車道正要匯入中央車道,而自駕車正在自我校正回車道中央,Nilsson卻騎乘機車從兩個車道中間切出來,導致與自駕車發生擦撞。此外,案發當時自駕車的時速為了順應車流而保持在每小時12英里(每小時19公里)行進,而摩托車卻是以大概每小時17英里(每小時27公里)行進,故自駕車應無不當駕駛之情形,反應由機車騎士Nilsson負擔肇事責任,因其未在確認安全之情況下,即從自駕車右側超車,以上通用汽車反駁Nilsson主張的結論,更與舊金山警察局的報告結果不謀而合,即舊金山警察局認為Nilsson在確定安全以前,就嘗試要超越自駕車。 此外,在前開訴訟提起前的2018年01月14日至01月20日的當週,加州車輛管理局表列出自2014年至2018年間的54起自動駕駛車意外報告,大部分的狀況係由駕駛人(而非自動駕駛車本身)對事故負責(雖開啟自動駕駛模式,但駕駛人仍在特定條件下需要自行駕駛)。 即便前開各個報告看似不利Nilsson,但Nilsson的律師Sergei Lemberg卻表示警方的報告應是有利Nilsson,因自駕車早在車禍發生前就已經發覺Nilsson,但卻沒有預留足夠的時間剎車與閃避,因此通用汽車公司所稱之主張並不足採信,更可見自駕車的行為是危險且難以被預測的。 就此,一位南加大研究自駕車法律問題的法律系教授Bryant Walker Smith表示,未來發生事故的時候,駕駛人在大多數的狀況下比較不會被苛責,但自動駕駛系統會被檢討應該可以做得更完善。 (註:本件訴訟仍在繫屬中,尚未判決。)
FCC核准拍賣700MHz頻譜波段,作為各式無線服務的使用有鑑於目前美國的廣播電視系統所使用的698-806 MHz 頻譜波段(一般稱作700MHz頻段),預計在由類比式的電視系統轉換至數位電視系統後,該頻段可完全地為各類無線服務所使用,包括公共安全以及商業服務,聯邦通訊傳播委員會(Federal Communications Commission, FCC)在2007年4月25日對此採納了「報告與命令」(Report and Order)以及「規則制訂建議的進一步通告」(Further Notice of Proposed Rulemaking )等文件作為相關規範。 關於700 MHz頻段的使用,目前FCC正朝下列三個面向來規劃: (1) 在商用服務方面,FCC以不同經濟規模的區域(如都會區、較大的經濟區塊等)來決定執照的發放,同時也制訂了如功率限制及其他的技術性規範。 (2)在保護頻道(Guard Bands)方面,FCC將改變目前在次級市場方面的租賃管理制度,使取得執照的業者在保護頻道的使用上更有彈性與效率; (3) 在公共安全頻段方面,FCC認為藉著更多頻段的釋放,使全國不同的網路(包括寬頻與窄頻)皆能全面達成互連,使危難發生時更得以發揮保障公共安全之功能。 上述相關的規則與建議將使FCC得以拍賣700 MHz頻段中不同用途的執照,並期待在全國性無線寬頻服務的互連方面,營造出更為創新以及符合公共安全的服務環境。
紐西蘭人工智慧論壇所發佈人工智慧原則紐西蘭人工智慧論壇(AI Forum)協會成立於2017年,為非營利組織,是紐西蘭政府的重要智庫單位。該協會的AI法律、社會和倫理工作組於2020年3月4日發表了紐西蘭第一份《紐西蘭可信賴的AI指導原則》, 此指導原則目的在提供簡潔有力的人工智慧參考點,以幫助大眾建立對紐西蘭人工智慧的開發和使用的信任。此份AI指導原則對政府具有重要的參考價值。 《紐西蘭可信賴的AI指導原則》,內容摘要如下: 一、公平和正義 (一)適用紐西蘭及其他相關管轄地包含科克群島、紐埃、托克勞、南極羅斯屬地法律; (二)須保護紐西蘭國內法及國際法所規範的人權; (三)須保障《懷唐伊條約》中毛利人的權利; (四)民主價值觀包含選舉的過程和在知情的情況下進行公眾辯論; (五)平等和公正的原則,要求人工智慧系統不會對個人或特定群體造成不公正地損害、排斥、削弱權力或歧視。 二、可靠性、安全性和私密性 AI利益相關者須確保人工智慧系統及資料的可靠、準確及安全性,並在人工智慧系統的整個生命週期中,保護個人隱私以及持續的識別和管控潛在風險。 三、透明度 人工智慧系統的運作應是透明的、可追溯的、並在一定的程度上具可解釋性,在面對責問時能夠被解釋且經得起質疑。 四、人類的監督和責任 AI利益相關者,應該對人工智慧系統及其產出進行適當的監督。 在利益相關者確定適當的問責制度和責任之前,不應使用會對個人或群體造成傷害的技術。 五、福利 AI利益相關者應在適當的情況下設計、開發和使用人工智慧系統,盡可能促進紐西蘭人民和環境的福祉,像是健康、教育、就業、可持續性、多樣性、包容性以及對《懷唐伊條約》獨特價值的認可。 此份AI指引較大的特色有兩點,第一,紐西蘭人工智慧論壇協會的成員組成,其中女性成員比例超過半數。第二,在其指導原則中第一點的「公平和正義」及第五點「福利」中,都特別提到須遵守《懷唐伊條約》以確保毛利人的權益。在這樣的基礎下,能更期待紐西蘭在發展AI技術的過程,能夠更切實的做到公平正義、無歧視。