2016年10月27日,FCC依據傳播法案(Communication Act)第222條通過《寬頻用戶隱私保護規則》(Rules to Protect Broadband Consumer Privacy, 下稱2016 Privacy Order)。2016 Privacy Order主要包含以下三點:
2016 Privacy Order通過後受到ISP業者大力抨擊,尤其是網站瀏覽與應用程式使用紀錄亦須取得消費者事先同意之部分,其認為如此可能扼殺電子商務發展,消費者亦可能被不必要的警示轟炸。由於2016 Privacy Order引起諸多不平,因此通過後半年,美國參議院與眾議院分別於2017年3月投票廢止,總統並於4月3日正式簽署此份國會審查法案(Congressional Review Act)。
廢止《寬頻用戶隱私保護規則》之原因為,消費者之個人資料雖可受到保護,但該規則僅適用於寬頻服務提供者與其他電信供應商,並不包含網站與前端服務(edge services)。是以僅ISP業者受到較嚴厲之管制,其餘網路服務則由FTC管轄,而FTC對隱私權之規範較為寬鬆,因此可能發生提供不同服務的兩家業者使用同一份客戶資料,受到的管制程度卻不同之情形。
贊成2016 Privacy Order之議員與消費者自助組織(consumer-advocacy groups)表示ISP業者應受到較嚴厲之規範,因消費者能輕易在網站間轉換,卻不能輕易更換ISP,且ISP得以取得消費者在所有網站上之瀏覽資料,但如Google與Facebook等大廠雖非ISP業者,卻亦能取得不限於自身網站的客戶瀏覽資料。
由於《寬頻用戶隱私保護規則》已正式廢止,FCC將不得再通過其他相同或實質上相同之規範,對ISP業者之管制回歸《傳播法案》第222條,亦即,對於網站瀏覽與應用程式使用紀錄之使用或分享,不須取得客戶之事先同意。
美國通用汽車公司(General Motors,下稱通用汽車)於2018年01月間向美國運輸部(United States Department of Transportation)遞出請求展示雪弗蘭(Chevrolet)第4代自動駕駛車(此款車種無裝備方向盤與踏板,號稱世界上第一輛可以自我安全駕駛,且無需人類介入駕駛的車輛)的申請,不久後關於以下車禍事件的訴訟即遭提起。 根據Oscar Willhelm Nilsson(即原告,下稱Nilsson)於2018年01月22日向美國舊金山區地方法院針對前開車禍事件提起訴訟的主張,於2017年12月07日早上,其在加州舊金山Oak Street的中央車道上騎乘機車往東行駛,Manuel DeJesus Salazar(即被告,下稱Salazar)於同時地駕駛由通用汽車製造之Chevrolet Bolt vehicle(下稱自駕車),並開啟自動駕駛模式且雙手放開方向盤。Nilsson原騎乘於自駕車後方,不久,自駕車自Nilsson正前方變換車道至左側,Nilsson則繼續筆直前行,但自駕車又隨即往回駛入Nilsson直行騎乘的車道,因此撞擊Nilsson摔倒在地。據此,Nilsson主張通用汽車公司欠缺對於自駕車的自我操作應符合交通法規及規定所賦之注意義務,換言之,自駕車前揭操作車輛駕駛的行為(未注意其他正在行駛的駕駛人而轉換至比鄰車道)具有過失,造成Nilsson受到嚴重的生理及心理損害,且無法工作,產生高額的醫療、護理費用,故請求法院判決原告即Nilsson之主張不少於7萬5千美元之損害賠償、懲罰性損害賠償、律師委任費用以及其他適當且公正之侵權損害賠償等有理由。 然而,根據先前加州車輛管理局所提之文件,通用汽車對Nilsson所描述之車禍經過提出了以下爭執,通用汽車表示自駕車側面有一條長磨損痕跡,應是當時右邊的車道正要匯入中央車道,而自駕車正在自我校正回車道中央,Nilsson卻騎乘機車從兩個車道中間切出來,導致與自駕車發生擦撞。此外,案發當時自駕車的時速為了順應車流而保持在每小時12英里(每小時19公里)行進,而摩托車卻是以大概每小時17英里(每小時27公里)行進,故自駕車應無不當駕駛之情形,反應由機車騎士Nilsson負擔肇事責任,因其未在確認安全之情況下,即從自駕車右側超車,以上通用汽車反駁Nilsson主張的結論,更與舊金山警察局的報告結果不謀而合,即舊金山警察局認為Nilsson在確定安全以前,就嘗試要超越自駕車。 此外,在前開訴訟提起前的2018年01月14日至01月20日的當週,加州車輛管理局表列出自2014年至2018年間的54起自動駕駛車意外報告,大部分的狀況係由駕駛人(而非自動駕駛車本身)對事故負責(雖開啟自動駕駛模式,但駕駛人仍在特定條件下需要自行駕駛)。 即便前開各個報告看似不利Nilsson,但Nilsson的律師Sergei Lemberg卻表示警方的報告應是有利Nilsson,因自駕車早在車禍發生前就已經發覺Nilsson,但卻沒有預留足夠的時間剎車與閃避,因此通用汽車公司所稱之主張並不足採信,更可見自駕車的行為是危險且難以被預測的。 就此,一位南加大研究自駕車法律問題的法律系教授Bryant Walker Smith表示,未來發生事故的時候,駕駛人在大多數的狀況下比較不會被苛責,但自動駕駛系統會被檢討應該可以做得更完善。 (註:本件訴訟仍在繫屬中,尚未判決。)
隱私暨個人資料保護與管理工具介紹(一)-隱私衝擊分析 澳洲證券投資委員會與美國商品期貨交易委員會簽訂雙邊合作協議2018年10月4日,澳洲證券投資委員會(Australian Securities and Investments Commission,簡稱:ASIC)與美國商品期貨交易委員會(US Commodity Futures Trading Commission,簡稱:CFTC)簽訂「金融技術創新合作雙邊協議」(Cooperation Arrangement on Financial Technology Innovation’ bilateral agreement,簡稱:協議),該協議內容主要針對未來金融科技(fintech)以及監理科技(regtech)之合作以及相關資訊作交換。 協議內容主要為加強雙方瞭解、識別市場發展趨勢,進而促進金融科技創新,對於運用監理科技之金融產業採取鼓勵的態度。 具體協議內容及相關合作計畫為以下條款: 1. 建立正式合作途徑,其中包含資訊分享,ASIC創新中心與LabCFTC之間的溝通; 2. 協助轉介有興趣於另一管轄權,設立企業之金融科技公司; 3. 促進監管機構定期舉行相關監管會議,討論目前時下發展趨勢,藉以相互學習; 4. 針對非公開資訊及機密資訊,給予監管機構以共享方式流通資訊。 儘管,澳洲與美國已簽訂此協議,惟須注意的地方在於,此協議本質上不具備法律約束力,對監管機構也未加註責任,並強加特定義務,以及未取代任何國內法的法律義務。 雖然,此協議不具任何法律約束力,但美國以及澳洲之金融科技創新產業間已形成一定之默契,以及交叉合作。此種互利合作,使兩國金融創新企業在雙方管轄權下,並且降低跨境成本及加深跨境無障礙性,為兩國監管機構提供最佳執行方式,以及進一步資料之蒐集。
OECD啟動全球首創的《開發先進人工智慧系統組織的報告框架》2025年2月7日,經濟合作暨發展組織(Organization for Economic Cooperation and Development,OECD)正式啟動《開發先進人工智慧系統組織的報告框架》(Reporting Framework for the Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems,簡稱G7AI風險報告框架)。 該框架之目的是具體落實《廣島進程國際行為準則》(Hiroshima Process International Code of Conduct)的11項行動,促進開發先進人工智慧系統(Advanced AI Systems)的組織建立透明度和問責制。該框架為組織提供標準化方法,使其能夠證明自身符合《廣島進程國際行為準則》的行動,並首次讓組織可以提供有關其人工智慧風險管理實踐、風險評估、事件報告等資訊。對於從事先進人工智慧開發的企業與組織而言,該框架將成為未來風險管理、透明度揭露與國際合規的重要依據。 G7 AI風險報告框架設計,對應《廣島進程國際行為準則》的11項行動,提出七個核心關注面向,具體說明組織於AI系統開發、部署與治理過程中應採取之措施: 1. 組織如何進行AI風險識別與評估; 2. 組織如何進行AI風險管理與資訊安全; 3. 組織如何進行先進AI系統的透明度報告; 4. 組織如何將AI風險管理納入治理框架; 5. 組織如何進行內容驗證與來源追溯機制; 6. 組織如何投資、研究AI安全與如何降低AI社會風險; 7. 組織如何促進AI對人類與全球的利益。 為協助G7推動《廣島進程國際行為準則》,OECD建構G7「AI風險報告框架」網路平台,鼓勵開發先進人工智慧的組織與企業於2025年4月15日前提交首份人工智慧風險報告至該平台(https://transparency.oecd.ai/),目前已有包含OpenAI等超過15家國際企業提交報告。OECD亦呼籲企業與組織每年定期更新報告,以提升全球利益相關者之間的透明度與合作。 目前雖屬自願性報告,然考量到國際監理機關對生成式AI及高風險AI 系統透明度、可問責性(Accountability)的日益關注,G7 AI風險報告框架內容可能成為未來立法與監管的參考作法之一。建議企業組織持續觀測國際AI治理政策變化,預做合規準備。