美國維吉尼亞州消費者資料保護法

  2021年3月2日美國維吉尼亞州州長簽署了維吉尼亞州消費者資料保護法(Virginia Consumer Data Protection Act),是繼加州之後,第二個自行制定相關規範並且採用的州,預計在2023年1月正式生效。

  該法在主軸上與加州消費者隱私保護法相去不遠,其為消費者提供六項主要權利,包括近用權、刪除權、資料可攜權、選擇退出權、更正權,以及申訴在合理期間內未獲妥適處理之再申訴權;又或者在義務上要求企業進行資料的蒐集、處理或利用時,需經當事人同意並且符合合理利用與必要範圍之限制,亦要求企業建立技術保障管理機制,以及向消費者提供隱私權政策。

  該法與加州消費者隱私保護法也有些許不同之處,例如,該法並無賦予人民為一切訴訟行為之權,訴訟權掌握在檢察總長手中、該法案適用主體必須是控制或處理十萬筆以上消費者個人資料之企業,或是總收入50%來自於利用消費者個人資料,且該資料量總數達二萬五千筆以上之企業,相比加州消費者隱私保護法適用主體之資格更為寬鬆。無論就形式上或實質上而言,維吉尼亞州消費者資料保護法普遍被認為比加州消費者隱私保護法更加友善企業,並且廣泛得到亞馬遜等相關科技行業的支持。

  在數位科技發展下,美國的紐澤西州、猶他州,以及許多其他州政府,紛紛考慮進行相類似之資訊隱私保護立法,此一趨勢發展已然勢不可擋。

相關連結
你可能會想參加
※ 美國維吉尼亞州消費者資料保護法, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8650&no=64&tp=1 (最後瀏覽日:2025/11/24)
引註此篇文章
你可能還會想看
日本總務省公告第一次Startup×Act計畫成果

  2017年底,日本總務省(総務省)宣布實施Startup×Act計畫,委由知名智庫野村綜合研究所(株式会社野村総合研究所)辦理執行,希望透過與新創團隊共同協作的模式,運用資通信科技(Information Communication Technology, ICT)緩解日本高齡化、少子化、都市防災、城鄉差距等問題。該計畫第一期已於2018年2月執行完畢,並於2018年3月8日在東京舉行了計畫成果發表會。根據日本總務省新聞稿表示,Startup×Act計畫是參考美國的新創駐進計畫(Startup in Residence, STiR;或譯創業家居留計畫)進行設計。   STiR係舊金山公民創新市長辦公室(San Francisco Major’s Office of Civic Innovation)於2014年成立的計畫,該計畫強調以公私共同協作的方式解決政府所面臨的民生問題。STiR運作方式雖在個別城市略有差異,但大致係由地方政府選定特定數個待解決的都市問題,再以工作坊的形式與有興趣之新創團隊進行討論。整個計畫以16周為期,以公私共同開發出產品或服務原型為目標,最後由新創團隊進行提案報告,為都市問題提供解決方法。提案可能被市政府採納並在市政府的協助之下以該都市做為實證場域,未來更可能與市政府簽訂合作契約,進一步使該新創團隊成為一成熟型新創公司。據統計,平均每年參與STiR的新創團隊有半數獲得了與當地市政府的合約。目前STiR已經推行至全美包含華盛頓DC在內的11個城市,並在荷蘭阿姆斯特丹與海牙皆設有姊妹站,由此可見STiR模式獲得相當大的迴響與肯定,並具有跨域、跨文化之普適性。   日本參考STiR所推出的Startup×Act計畫於2017年底啟動,第一個參與的地方政府為京都府京丹後市,之後陸續有北海道天塩町、香川縣高松市、熊本縣熊本市加入計畫。Startup×Act的Act為Applications for Cities and Town之縮寫,彰顯城市作為新創產品或服務實證場域的計畫特色。   Startup×Act擇定健康醫療與社福照顧、育兒與教育、安全安心生活、城鄉發展與交通以及產業振興提升就業為五大都市問題。在Startup×Act計畫之下,地方政府毋須提供政府採購的需求說明書(Request for Proposal, RFP),僅需提出希望解決之問題。舉例而言,香川市就提出「希望能讓被取消駕照資格的高齡者繼續享受出門購物的樂趣」,最後該案由一間VR新創公司提出解決方案。   STiR與Startup×Act這種類工作坊的高密度、高強度的腦力激盪與供需兩端直接溝通是其特色。時程短、彈性高,資源共享與知識流通量巨大,並且以解決問題為導向,能破除新創企業參與政府採購的障礙。新創團隊除了可以在短時間內累積大量地方社群與政府人脈,增加彼此信任度,更可以從具體的實證經驗當中學習並進一步拓展市場。

歐盟執委會提出「具可信度之人工智慧倫理指引」

  歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。   該指引並進一步指出人工智慧應遵守以下四項倫理原則: (1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。 (2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。 (3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。 (4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。

『採購單位執行下單評估與廠商智慧財產管理要件之關連性』研究調查

南韓個資保護委員會發布人工智慧(AI)開發與服務處理公開個人資料指引

南韓個資保護委員會(Personal Information Protection Commission, PIPC)於2024年7月18日發布《人工智慧(AI)開發與服務處理公開個人資料指引》(인공지능(AI) 개발·서비스를 위한 공개된 개인정보 처리 안내서)(以下簡稱指引)。該指引針對AI開發與服務處理的公開個人資料(下稱個資)制定了新的處理標準,以確保這些資料在法律上合規,且在使用過程中有效保護用戶隱私。 在AI開發及服務的過程中,會使用大量從網路上收集的公開資料,這些公開資料可能包含地址、唯一識別資訊(unique identifiable information, UII)、信用卡號等個資。這些公開的個資是指任意人可藉由網路抓取技術自公開來源合法存取的個資,內容不限於個資主體自行公開的資料,還包括法律規定公開的個資、出版物和廣播媒體中包含的個資等。由於公開資料眾多,在現實中很難在處理這些公開個資以進行AI訓練之前,取得每個個資主體的單獨同意及授權,同時,南韓對於處理這些公開個資的現行法律基礎並不明確。 為解決上述問題,PIPC制定了該指引,確認了蒐集及利用公開個資的法律基礎,並為AI開發者和服務提供者提供適用的安全措施,進而最小化隱私問題及消除法律不確定性。此外,在指引的制定過程中,PIPC更參考歐盟、美國和其他主要國家的做法,期以建立在全球趨勢下可國際互通的標準。 指引的核心內容主要可分為三大部分,第一部分:應用正當利益概念;第二部分:建議的安全措施及保障個資主體權利的方法;及第三部分:促進開發AI產品或服務的企業,在開發及使用AI技術時,注意可信任性。 針對第一部分,指引中指出,只有在符合個人資料保護法(Personal Information Protection Act, PIPA)的目的(第1條)、原則(第3條)及個資主體權利(第4條)規定範圍內,並滿足正當利益條款(第15條)的合法基礎下,才允許蒐集和使用公開個資,並且需滿足以下三個要求:1.目的正當性:確保資料處理者有正當的理由處理個資,例如開發AI模型以支持醫療診斷或進行信用評級等。2.資料處理的必要性:確保所蒐集和利用的公開資料是必要且適當的。3.相關利益評估:確保資料處理者的正當利益明顯超越個資主體的權利,並採取措施保障個資主體的權利不被侵犯。 而第二部分則可區分為技術防護措施、管理和組織防護措施及尊重個資主體權利規定,其中,技術防護措施包括:檢查訓練資料來源、預防個資洩露(例如刪除或去識別化)、安全存儲及管理個資等;管理和組織防護措施包括:制定蒐集和使用訓練資料的標準,進行隱私衝擊影響評估(PIA),運營AI隱私紅隊等;尊重個資主體權利規定包括:將公開資料蒐集情形及主要來源納入隱私政策,保障個資主體的權利。 最後,在第三部分中,指引建議AI企業組建專門的AI隱私團隊,並培養隱私長(Chief Privacy Officers, CPOs)來評估指引中的要求。此外,指引亦呼籲企業定期監控技術重大變化及資料外洩風險,並制定及實施補救措施。 該指引後續將根據PIPA法規修訂、AI技術發展及國際規範動向持續更新,並透過事前適當性審查制、監管沙盒等途徑與AI企業持續溝通,並密切關注技術進步及市場情況,進而推動PIPA的現代化。

TOP