美國維吉尼亞州消費者資料保護法

  2021年3月2日美國維吉尼亞州州長簽署了維吉尼亞州消費者資料保護法(Virginia Consumer Data Protection Act),是繼加州之後,第二個自行制定相關規範並且採用的州,預計在2023年1月正式生效。

  該法在主軸上與加州消費者隱私保護法相去不遠,其為消費者提供六項主要權利,包括近用權、刪除權、資料可攜權、選擇退出權、更正權,以及申訴在合理期間內未獲妥適處理之再申訴權;又或者在義務上要求企業進行資料的蒐集、處理或利用時,需經當事人同意並且符合合理利用與必要範圍之限制,亦要求企業建立技術保障管理機制,以及向消費者提供隱私權政策。

  該法與加州消費者隱私保護法也有些許不同之處,例如,該法並無賦予人民為一切訴訟行為之權,訴訟權掌握在檢察總長手中、該法案適用主體必須是控制或處理十萬筆以上消費者個人資料之企業,或是總收入50%來自於利用消費者個人資料,且該資料量總數達二萬五千筆以上之企業,相比加州消費者隱私保護法適用主體之資格更為寬鬆。無論就形式上或實質上而言,維吉尼亞州消費者資料保護法普遍被認為比加州消費者隱私保護法更加友善企業,並且廣泛得到亞馬遜等相關科技行業的支持。

  在數位科技發展下,美國的紐澤西州、猶他州,以及許多其他州政府,紛紛考慮進行相類似之資訊隱私保護立法,此一趨勢發展已然勢不可擋。

相關連結
你可能會想參加
※ 美國維吉尼亞州消費者資料保護法, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8650&no=64&tp=1 (最後瀏覽日:2026/05/17)
引註此篇文章
你可能還會想看
ZeniMax控Oculus Rift VR竊取技術經陪審團判決應賠償美金5億元

  電子遊戲龍頭ZeniMax於2014年起訴虛擬實境公司Oculus VR,稱Oculus創辦人Palmer Luckey為改善初代虛擬實境體驗機「Rift」提供原型予在ZeniMax任職的John Carmack,嗣Carmack在該機器增加ZeniMax所有之虛擬實境專用關鍵軟體,ZeniMax就Luckey取得該公司軟體之內容與Luckey簽立保密協定。其後Luckey為募集Oculus資金,未經ZeniMax授權及參與,開始展示含有ZeniMax專有軟體之「Rift」,最後Facebook收購Oculus。   ZeniMax以Oculus、Luckey、Brendan Iribe(Oculus另一創辦人)、Carmack為被告,主張其等盜用營業秘密、侵害著作權、違反保密協定、不公平競爭、不當得利、商標侵權(包括未經許可使用以及錯誤指示商品來源),並列Facebook為共同被告主張其於收購Oculus即知情,連帶給付20億美元之損害賠償及40億美元之懲罰性賠償。本訴訟於2017年2月1日經陪審團認定Oculus違反保密協定、侵害著作權、錯誤指示商品來源侵害商標等共計賠償3億美元,Luckey及Iribe因錯誤指示侵害商標共計賠償2億美元。   以本案來看,Oculus及其創辦人最主要是未經ZeniMax同意而公開使用ZeniMax的程式碼且宣稱為其公司產出,關於這個部分公司未來在有運用他人公司技術之情形宜透過協商,以共同發表之方式避免侵害創作公司之權利;另創作公司雖未公開技術,然可透過保密協定使營業秘密獲得完善的保障;至於Facebook的部分更凸顯公司於併購前尤應強化盡職查核(Due Diligence),以免訟累。 本文同步刊登於TIPS網站(https://www.tips.org.tw)」

新加坡擬禁止未獲所有人同意下測試和研究基因

  新加坡生物道德諮詢委員會五日發表基因檢驗與研究道德準則草案,草案建議政府禁止基因研究者在未獲得同意之下取得基因進行測試與研究,同時也禁止採用基因檢驗來選擇胎兒的性別。新加坡生物道德諮詢委員公布基因檢驗與研究道德準則草案,共提出二十四項建議,希望能在研究人員從事基因研究時,保障人權。    草案建議政府,任何基因測試除非獲得基因所有人同意,否則不得進行。,產前基因篩檢只能限於確保孩子的健康,不要把先天性疾病遺傳給下一代,但不能用在選擇生男或生女。草案規範,研究員或醫生不能把基因研究結果透露給第三者,包括雇主和保險公司知道,以保障個人隱私。    委員會已經把草案公布在網站上供民眾查閱,並分送給一百一十四個機構,徵詢公眾和機構的看法;委員會將在年底向星國生命科學部長級會議提出報告。

美國FDA更新軟體預驗證計畫,以明確化數位健康科技的軟體器材審查流程

  美國食品及藥物管理局(the U.S. Food and Drug Administration)於2019年1月更新「軟體預驗證計畫(Software Precertification Program)」及公布該計畫「2019測試方案(2019 Test Plan)」與「運作模式初版(A Working Model v1.0)」,使審查流程更加明確及具有彈性,並促進技術創新發展。   在更新計畫中,FDA聚焦於審查架構的說明,包含考量納入醫療器材新審查途徑(De Novo pathway)及優良評估流程(Excellence Appraisal process)的審查內涵。在優良評估流程中,相關研發人員須先行提供必要資訊,以供主管機關驗證該軟體器材之確效(validation)及是否已符合現行優良製造規範(current good manufacturing practices)與品質系統規範(Quality System Regulation, QSR)的要求。而由於以上標準已在此程序中先行驗證,主管機關得簡化上市前審查的相關查證程序,並加速查驗流程。   在測試方案中,則說明FDA將同時對同一軟體器材進行軟體預驗證審查及傳統審查,並比較兩種途徑的結果,以確保軟體預驗證審查途徑中的每一個程序都可以有效評估產品上市前所應符合的必要標準。最後,FDA綜合軟體預驗證計畫及測試方案,提出「運作模式初版」,以協助相關人員了解現行的規範架構與處理程序,並期待藉此促進技術開發者及主管機關間的溝通。FDA並於運作模式文件中提到,將在2019年3月8日前持續接受相關人員的建議,而未來將參酌建議調整計畫內容。

英國發布著作權與人工智慧報告書與影響評估

英國發布著作權與人工智慧報告書與影響評估 資訊工業策進會科技法律研究所 2026年04月09日 英國政府於2026年3月18日依據《資料使用與存取法》(Data (Use and Access) Act 2025,下稱DUAA)第135條及第136條之法定義務,發布《著作權與人工智慧報告書》(Report on Copyright and Artificial Intelligence,下稱「報告書」)[1]及《著作權與人工智慧影響評估》(Copyright and AI Impact Assessment,下稱「影響評估」)[2]兩份官方文件。前揭文件係英國政府對人工智慧(Artificial Intelligence,下稱AI)使用著作權作品所進行之全面性政策評估,並對英國在AI著作權的修法路徑造成實質影響,使政府原先屬意的修法路徑被迫暫停推進。 壹、事件摘要 英國政府自2024年12月17日起展開「著作權與人工智慧」公開意見徵詢,徵詢期間至2025年2月25日止,共計收到11,520份回應。回應者涵蓋著作權人、創作者、AI模型開發者、學術研究機構、文化遺產機構及法律專業人士等,惟各自占比並未揭露。基於DUAA第135條及第136條之法定義務,英國政府須於法案通過後九個月內完成相關報告,遂於2026年3月18日同步公布「報告書」及「影響評估」。 報告書之主軸在於評估四大政策選項:選項0(維持現狀)、選項1(強化著作權保護)、選項2(廣泛資料探勘例外)、選項3(資料探勘例外附加選擇退出機制)。徵詢結果顯示,英國政府原傾向推動之「選項3」(附選擇退出之廣泛例外),在逾萬份回應中僅獲約3%之支持率,致使政府不得不重新審視其政策立場。 貳、重點說明 一、《資料使用與存取法》之立法脈絡 AI訓練資料可能涵蓋大量受著作權保護作品,如何權衡創作者權益與AI創新的效益,是目前各國所面臨的核心挑戰。此部分涉及各國著作權法規是否允許AI在未經授權的情況下利用著作權保護之作品,各國對此採取不同立場,相關法制爭議至今仍未有定論。英國係於《著作權、設計及專利法》(Copyright, Designs and Patents Act 1988,下稱CDPA)第29A條[3]設有文字及資料探勘(Text and Data Mining,下稱TDM)例外,意即資料使用者得於特定條件下,對其可合法取用之著作進行自動化分析而不構成侵權。惟其適用範圍僅限於「非商業研究目的」,使得AI業者在商業訓練場景中難以援引此一例外。 為解決前述挑戰,英國提出四種政策方向並徵詢公眾意見,其結果可見於「報告書」及「影響評估」。以下針對此四種政策選項進行說明。 二、四大政策選項之比較分析 (一)選項0:維持現狀 選項0係維持英國現行著作權法架構,AI業者原則上須就使用著作權作品取得授權,僅得於CDPA第29A條非商業研究之例外範圍內進行TDM。影響評估指出,現行制度對著作權人之保護在理論上尚稱完備,然受限於AI訓練資料來源缺乏透明度,著作權人實際上難以知悉其作品是否遭擅自使用,舉證更屬不易,致使授權機制形同虛設。此外,若境外AI業者以海外訓練之模型輸入英國市場,英國著作權人之權益亦難以獲得有效保障。 (二)選項1:強化著作權保護 選項1主張進一步強化著作權保護,要求所有AI訓練使用之材料均須取得授權,包括境外AI模型輸入英國市場時,亦須證明已依英國著作權法取得合法授權。就創意產業而言,此選項能更有力保障著作權人之財產權,並使其得從AI訓練中獲得合理報酬;然對AI業者而言,合規成本之提高將增加訓練門檻,可能壓抑英國本土AI產業之競爭力。影響評估亦指出,此選項下AI服務成本或轉嫁至終端用戶,影響政府及企業之AI採用率。選項1獲得了最高的支持度,有81%回應者贊同此一制度。 (三)選項2:廣泛TDM例外 選項2主張設立廣泛TDM例外,使AI業者無論商業或非商業目的均可對合法取得之資料進行探勘與訓練,無需逐一取得著作權人授權。此一制度係參考日本著作權法第30條之4。該條文指出,只要目的非在「享受著作物所呈現之思想或感情」原則上均可免授權使用,意即資料分析、資料蒐集與AI訓練等基於「情報解析」行為皆屬TDM例外範疇。 選項2雖有助於降低AI業者法遵成本並提升英國AI研發之國際競爭力,然創意產業普遍擔憂,廣泛例外將使生成式AI大量學習創作者作品,卻無需給付任何報酬,且可能產出直接競爭於原著作人之內容,嚴重侵蝕其市場利益。此選項僅有極少數回應者支持,如OpenAI、Anthropic等大型AI公司。 (四)選項3:TDM例外附加選擇退出機制 選項3原先為英國政府屬意推動的政策選項,亦與歐盟《數位單一市場著作權指令》(DSM Directive)第4條[4]之商業TDM例外架構相近,其核心設計係為原則上允許AI業者對合法取得之資料進行TDM,但著作權人得透過技術手段(如robots.txt)明確保留其權利(即選擇退出機制)。 然而,此選項在公開意見徵詢中僅獲約3%之支持率,其主要爭議在於:對創作者而言,選擇退出機制實質上將著作權保護之責任轉嫁至個人,中小型的創作者往往缺乏必要之技術能力或資源執行退出操作;並非所有爬蟲程式均遵從robots.txt協議;跨境訓練亦難有效管制。此外,在欠缺揭露義務的前提下,創作者仍無從知悉其作品是否遭侵權使用。 三、訓練資料透明度要求 報告書顯示,逾90%之意見回應者認為AI開發者應揭露訓練資料來源,惟各方對於揭露顆粒度(granularity)之要求存在明顯分歧:著作權人傾向主張細緻揭露至個別作品層次;AI業者則認為高層次概括揭露即已足夠。 就國際立法例而言,歐盟《AI法》(AI Act)第53條[5]第1項第4款已要求AI模型提供者製作並公開訓練內容摘要;美國加州亦已制定《生成式AI訓練資料透明度法》(Generative Artificial Intelligence: Training Data Transparency Act)。[6]英國雖無相關法定揭露義務,但在報告書中表示將持續監測其他國家透明度規範之實施效果,並與業界合作制定訓練資料揭露之最佳實務,以期為著作權人提供更有效之權利主張基礎。 參、事件評析 公眾諮詢的結果顯示,尋求著作權保護與AI創新發展的平衡點極具挑戰性。由於引起及大的社會反彈,英國政府被迫放棄「TDM例外附加選擇退出機制」之規劃,然而未來是否會徹底走向「強化著作權保護」仍未可知。然而,在本次諮詢中,有90%之回應者支持AI訓練資料透明度要求;歐盟AI法、美國加州生成式AI透明度法均課予AI業者一定程度的訓練資料揭露義務。從此觀之,縱使著作權人與AI業者之間存有諸多重大分歧,但透明度要求是目前雙方的共識基礎。 我國現行法制下AI訓練所遭遇到的爭議與英國類似,著作權人與AI業者的利益衝突如何化解亦為我國當前AI發展的課題。故英國經驗揭示,政策推行或法令修正宜建立多元利害關係人持續對話機制;此外,在法令、技術標準尚未成熟之情況下,業界最佳實務指引或可作為過渡性替代方案。 [1] GOV.UK, Report on Copyright and Artificial Intelligence (2026), https://assets.publishing.service.gov.uk/media/69ba692226909a14239612e4/CP2602959_-_Report_on_Copyright_and_Artificial_Intelligence_web.pdf (last visited. Apr. 9, 2026). [2] GOV.UK, Copyright and AI Impact Assessment (2026), https://assets.publishing.service.gov.uk/media/69ba68f7c06ba9576435abb0/CP2602959_-_AI_and_Copyright_Impact_Assessment_Web.pdf (last visited. Apr. 9, 2026). [3] Copyright, Designs and Patents Act 1988, legislative.gov.uk, https://www.legislation.gov.uk/ukpga/1988/48/section/29A (last visited Apr. 9, 2026). [4] Directive (EU) 2019/790, art. 4, 2019 O.J. (L 130) 92, 114. [5] Regulation 2024/1689, art. 53, 2024 O.J. (L 1689) 1, 84. [6] Bill Text - AB-2013 Generative artificial intelligence: training data transparency, California Legislative Information, https://leginfo.legislature.ca.gov/faces/billTextClient.xhtml?bill_id=202320240AB2013 (last visited Apr. 9, 2026).

TOP