加州消費者隱私保護法修正法案重點說明

  隨著個人資料保護意識的興起,各國也持續增修法律來保護人民權益以及協調產業標準,但這變動的過程會對本來就複雜的法律結構帶來更多挑戰。

  如美國同時會有聯邦法與州法兩個層次的法律,當兩者分別發展隱私權相關法律規範時,難免會缺乏協調,出現定義不明的重疊規範,進而提高企業之法令遵循成本與管理成本。最終導致的結果,就是非必要地降低了產業發展速度,以及提高了消費者獲得服務的成本。

  日前美國加州政府修改了首部以消費者個人資料權利為規範之州級法律「加州消費者隱私保護法(California Consumer Privacy Act, CCPA)」,使該部法案對於個人資料保護與利用之規範日漸完備,並減少與聯邦政府重複管轄項目,進而達到合理降低州內企業的遵法成本。美國加州州長紐松(Gavin Newsom)簽署的CCPA修正案「AB-713號法案」(Assembly Bill No. 713, an act to amend Sections 1798.130 and 1798.145 of the Civil Code )通過後,CCPA之適用範圍將限縮。若「同時符合」下列二者條件,則可免受CCPA規範:

  1. 受「加州醫療資訊保密法」(the California’s Confidentiality of Medical Information Act, CMIA)所規範的的醫療資訊及個人健康資訊之衍生資訊,或受「美國聯邦受試者保護通則」(Federal Common Rule for human research subjects) 所規範的可識別之個人資訊。
  2. 根據「健康保險可攜性及責任法」(Health Insurance Portability and Accountability Act, HIPPA)之標準,已去識別化的資訊。

  換言之,已經依HIPAA標準去識別化之第一點資訊,即可豁免CCPA針對個人資料保護之相關規定。此將減輕本身不受 HIPAA 規範,但因進行研究或業務目的需接收 HIPPA 去識別化資訊企業之合規負擔。

  「AB-713號法案」對於已去識別化資訊之利用或販售行為,增設了契約須載明下列規範架構之條款內容:

  1. 如有利用或販售去識別化資訊涉及病患資料者,須在契約中予以聲明。
  2. 禁止買受人或被授權利用人以任何方式重新識別去識別化資訊。
  3. 除法律另有規定,或第三方受到相同或更嚴格限制之個資保護約束,買受人或被授權利用人不得將去識別化資訊再行揭露予第三方。

  「AB-713號法案」亦要求進行CCPA所涵蓋販售或揭露去識別化病患資訊的企業,其隱私政策聲明應納入以下內容:

  1. 將出售或揭露去識別化病患之資訊;
  2. 採用HIPAA所允許如專家法(Expert determination)或安全港法(Safe harbor)等之何種方式,進行病患資訊之去識別化。

  整體來說,「AB-713號法案」讓CCPA的規範稍加鬆綁,明確排除CCPA對特定去識別化資訊之適用,並擴張對研究行為之豁免範圍,在處理上有更多彈性,惟同時也要求企業須充分揭露其個人資料處理原則。

相關連結
你可能會想參加
※ 加州消費者隱私保護法修正法案重點說明, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8630&no=66&tp=1 (最後瀏覽日:2026/01/09)
引註此篇文章
你可能還會想看
美國奈米容器 挑戰舊有法規

  隨著奈米科技之迅速發展,相關議題焦點已擴及美國食品包裝業,並有待進一步明確規範,以保障消費者安全。由新興奈米材料計畫(Project on Emerging Nanotechnologies,PEN)以及食品雜貨製造協會(Grocery Manufacturers Association,GMA)於2008年6月提出「確保奈米材料使用於食品包裝之安全性(Assuring the Safety of Nanomaterials in Food Packaging: The Regulatory Process and Key Issues )」研究報告,結合產、官、學與公益團體之意見,分別就食品生產過程中,研究「應於何時評估奈米材料之毒性」以及「奈米包裝材質對於食物的潛在危機」。   該報告內容指出,以往係由美國食品暨藥物管理局(FDA)與環保署(EPA)負責管制一般食品包裝材質;FDA以「聯邦食品、藥物及化妝品法」(Federal Food, Drug and Cosmetic Act,FEDCA)中的食品添加物(food additive)條款為規範主軸,而EPA則以「聯邦除蟲劑、殺菌劑及滅鼠法」(Federal Insecticide, Fungicide, and Rodenticide Act,FIFRA)作為管理食品包裝材料之依據;近年來業界認為奈米材料有助於保存食品,漸而應用於食品包裝技術上,惟現行關於奈米微粒之資訊仍未完全,且舊有法規已不敷使用,因此必須蒐集大量數據資料並訂立明確規範,盡可能減低包裝容器所產生的潛在危機,以確保消費者與食品成分皆安全無虞。   該項研究採公開對話方式,區分為法制、科技與產業等三個小組,各有其研究目標: (1)法制面:確立奈米尺寸之定義、檢驗奈米尺寸物質是否能列入食品添加物之範疇。 (2)科技面:分析奈米微粒之物理與化學性質、評估使用奈米材料對於環境的衝擊。 (3)產業面:嘗試建立奈米包裝材質之生命週期。   即便該報告尚未能指引出明確的解決之道,其仍出於增進對話之目的,以表格整理現有資料並提問,藉以促使產業與政府機關進一步思考問題之方向,並尋求科學性的解決方式。

美國國家標準暨技術研究院發布「全球AI安全機構合作策略願景目標」,期能推動全球AI安全合作

美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)於2024年5月21日提出「全球AI安全機構合作策略願景目標」(The United States Artificial Intelligence Safety Institute: Vision, Mission, and Strategic Goals,下稱本策略願景),美國商務部(Department of Commerce)亦於2024年參與AI首爾峰會(AI Seoul Summit)期間對外揭示本策略願景,期能與其他國家攜手打造安全、可靠且可信賴之AI生態系。 由於AI可信賴與否往往取決於安全性,NIST指出當前AI安全所面臨的挑戰包含:一、欠缺對先進AI之標準化衡量指標;二、風險測試、評估、驗證及確效(Test, Evaluation, Validation, and Verification, TEVV)方法不健全;三、欠缺對AI建模後模型架構與模型表現間因果關係的了解;四、產業、公民社會、國內外參與者等在實踐AI安全一事上合作程度極為有限。 為因應上述挑戰並促進AI創新,NIST在本策略願景中擬定以下三大戰略目標:(1)推動AI安全科學發展:為建立安全準則與工具進行技術合作研究,並預先部署TEVV方法,以利評估先進AI模型之潛在風險與應對措施;(2)推展AI安全實務作法:制定並發布不同領域AI風險管理之相關準則與指標,以達到負責任設計、開發、部署與應用AI模型與系統之目的;(3)支持AI安全合作:促進各界採用前述安全準則、工具或指標,並推動全球合作,以發展國際通用的AI安全風險應對機制。

關於iPod專利的戰爭越演越烈

  蘋果電腦 (Apple Computer Inc.) , iPod 製造商,已經提起第二項訴訟以反擊其競爭對手, MP3 製造商創新科技 (Creative Labs Inc.) 所提出之專利訴訟。   以新加坡為基地的創新科技,世界第二大數位音樂播放器銷售商,上個月在加州的美國聯邦地方法院,控告蘋果電腦的 iPod 音樂播放器侵犯關於該公司旗下 Zen MP3 播放器介面的專利。同時,該公司也要求美國國際貿易委員會 (International Trade Commission, ITC) 禁止 iPod 在美國的販售與行銷。   蘋果電腦除了向威斯康辛的美國聯邦地方法院提出反訴之外,隨後再於上週向德州的美國聯邦地方法院控告創新科技的可攜式音樂播放器侵犯其數件關於軟體以及系統的專利,包括 MP3 在電腦上的顯示方式、如何編輯 MP3 播放器資料以及圖示的安排等。   創新科技發言人 Phil O'Shaughnessy 表示,最近數月以來,創新科技已經向蘋果電腦提出若干「溫和的解決方案」。他也表示,於交涉期間,或任何其他時間,蘋果電腦從未提及其列舉於訴訟中的那些專利。並且,創新科技已經預料到蘋果電腦的報復行動,也已經作好準備。

歐盟執委會提出「具可信度之人工智慧倫理指引」

  歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。   該指引並進一步指出人工智慧應遵守以下四項倫理原則: (1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。 (2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。 (3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。 (4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。

TOP